WO2023085139A1 - データ処理装置、データ処理方法、およびプログラム - Google Patents

データ処理装置、データ処理方法、およびプログラム Download PDF

Info

Publication number
WO2023085139A1
WO2023085139A1 PCT/JP2022/040595 JP2022040595W WO2023085139A1 WO 2023085139 A1 WO2023085139 A1 WO 2023085139A1 JP 2022040595 W JP2022040595 W JP 2022040595W WO 2023085139 A1 WO2023085139 A1 WO 2023085139A1
Authority
WO
WIPO (PCT)
Prior art keywords
data processing
information
volumetric image
content
processing device
Prior art date
Application number
PCT/JP2022/040595
Other languages
English (en)
French (fr)
Inventor
毅 石川
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023085139A1 publication Critical patent/WO2023085139A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present disclosure relates to a data processing device, a data processing method, and a program, and more particularly to a data processing device, a data processing method, and a program that add value to viewing volumetric content.
  • Patent Literature 1 discloses a technique for constructing and reproducing a replay video of a free viewpoint video with a low load.
  • volumetric video technology which converts an entire space into three-dimensional data, has been widely used in various fields such as sports, music, and entertainment.
  • volumetric video technology when viewing volumetric content provided by volumetric video technology, it has not been possible to reflect the viewer's viewpoint and opinion in the content.
  • the present disclosure has been made in view of such circumstances, and is intended to add value to the viewing of volumetric content.
  • the data processing device of the present disclosure includes an edit reception unit that receives editing of a volumetric image according to a user's operation, and conversion data obtained by converting the edited volumetric image into a format that can be output by another device and a data generation unit for generating data.
  • a data processing device accepts editing of a volumetric image in accordance with a user's operation, and the edited volumetric image is converted data in a format that can be output by another device. is a data processing method that generates
  • the program of the present disclosure is a process of receiving editing of a volumetric image in a computer according to a user's operation, and generating conversion data in which the edited volumetric image is converted into a format that can be output by another device. It is a program for executing
  • editing of a volumetric image is accepted according to a user's operation, and converted data is generated by converting the edited volumetric image into a format that can be output by another device.
  • FIG. 1 is a diagram showing an overview of a content providing service to which technology according to the present disclosure is applied;
  • FIG. 1 is a diagram illustrating a configuration example of a data processing system according to an embodiment of the present disclosure;
  • FIG. 4 is a diagram for explaining functions of an editor; 4 is a flowchart for explaining the flow of operations of an editor;
  • FIG. 10 is a diagram showing an example of an edit screen;
  • FIG. It is a figure which shows the example of a format of SNS corresponding data.
  • FIG. 4 is a diagram showing an example of an editor as a web application; It is a figure explaining the example of utilization of SNS correspondence data.
  • FIG. 4 is a diagram showing an example of viewpoint positions;
  • FIG. 4 is a diagram showing an example of viewpoint positions;
  • FIG. 5 is a diagram showing an example of means for designating a viewpoint position;
  • FIG. 5 is a diagram showing an example of means for designating a viewpoint position;
  • FIG. 10 is a diagram for explaining designation of a playback section and playback speed; It is a figure which shows the example of addition information. It is a figure which shows the example of addition information.
  • FIG. 10 is a diagram showing an example of an effect image;
  • FIG. 10 is a diagram showing an example of an effect image;
  • FIG. 10 is a diagram showing an example of restrictions on editing content; It is a block diagram which shows the structural example of the hardware of a computer.
  • Outline of content providing service 2 Configuration and operation of data processing system3. Concrete example of edit information4. Computer configuration example
  • FIG. 1 is a diagram showing an outline of a content providing service to which technology according to the present disclosure is applied.
  • a user U1 can view volumetric content from a desired angle (viewpoint), add comments and the like to the content, and post the content to an SNS (Social Networking System). can.
  • the user U2 can easily view the content from the unique viewpoint of the user U1 via the SNS.
  • User U1 is, for example, a core fan who is familiar with specific sports and music, and user U2 is a general fan who is interested in those sports and music.
  • a user U1 selects (clicks) an image N10 in news content that can be viewed by a sports news application (app) installed on his/her smartphone. Then, a volumetric editor (hereinafter also simply referred to as an editor) for editing the volumetric content is activated on the smart phone of the user U1.
  • a volumetric editor hereinafter also simply referred to as an editor
  • the selection of the image N10 causes the volumetric content generated by photographing the sports game with a plurality of cameras to Downloaded from a predetermined content server.
  • the user U1 can edit the volumetric content downloaded from the content server by operating the edit screen displayed on the smartphone by activating the editor. Specifically, the user U1 can specify the viewpoint position of the volumetric content and add comments to the volumetric content.
  • the editor converts the format of the edited volumetric content into a file format that can be posted to SNS, and transmits the resulting converted data (SNS compatible data) to the SNS server. .
  • the user U2 can view the volumetric content P20 edited by the user U1 together with the text data input by the user U1 by accessing the SNS on his/her smartphone.
  • the user U1 can, for example, transmit his/her own viewpoint and opinion on a certain sport, and the user U2 can deepen his/her understanding of the sport. can. That is, according to the technology according to the present disclosure, added value can be added to the viewing of volumetric content.
  • FIG. 2 is a diagram illustrating a configuration example of a data processing system according to an embodiment of the present disclosure.
  • the data processing system 10 of FIG. 2 is configured to include a content server 100, a user terminal 200, and an SNS server 300.
  • the user terminal 200 is connected to the content server 100 and the SNS server 300 built on a so-called cloud via a network NW such as the Internet.
  • NW such as the Internet
  • the content server 100 is configured as a distribution server that distributes volumetric content to the user terminals 200 .
  • the content server 100 has a content management section 110 and a content delivery section 120 .
  • the content management unit 110 accumulates and manages volumetric content, which is free-viewpoint video generated in various fields such as sports, music, and entertainment.
  • the content distribution unit 120 distributes volumetric content managed by the content management unit 110 to the user terminal 200 in response to a request from the user terminal 200 .
  • the user terminal 200 is configured as a mobile terminal such as a smartphone capable of viewing volumetric content, and an editor for editing volumetric content is installed.
  • User terminal 200 (editor) is configured to include content receiving section 210 , rendering section 220 , edit receiving section 230 , data generating section 240 , data transmitting section 250 and accumulation control section 260 .
  • the content receiving unit 210 requests volumetric content from the content server 100 using a predetermined user operation on the user terminal 200 as an activation trigger.
  • the content receiving unit 210 receives volumetric content distributed from the content server 100 in response to a request, and supplies the volumetric content to the rendering unit 220 .
  • the rendering unit 220 renders the volumetric content from the content receiving unit 210.
  • Three-dimensional image data (hereinafter referred to as a volumetric image) as rendered volumetric content is supplied to the edit reception unit 230 .
  • the editing reception unit 230 receives editing of the volumetric image from the rendering unit 220 according to the user's operation on the user terminal 200 .
  • Editing a volumetric image includes specifying the viewpoint position of the volumetric content and adding comments to the volumetric content, as described above.
  • the edited volumetric image is supplied to the data generator 240 and accumulation controller 260 .
  • the data generation unit 240 generates converted data by converting the edited volumetric image from the edit reception unit 230 into a format that can be output by another device.
  • the format of the converted data includes moving images, still images, and a uniquely defined predetermined file format, and is a file format that can be posted to a predetermined SNS.
  • the converted data can also be said to be SNS compatible data converted into an SNS compatible format.
  • the SNS compatible data generated by the data generator 240 is supplied to the data transmitter 250 .
  • the data transmission unit 250 transmits the SNS-compatible data from the data generation unit 240 to the SNS server 300 via the network NW according to the user's operation on the user terminal 200 .
  • the accumulation control unit 260 accumulates the edited volumetric image from the edit reception unit 230 in a storage area (not shown).
  • the edited volumetric image stored in the storage area is viewed again or re-edited by the user of the user terminal 200 .
  • the SNS server 300 is managed by an SNS operating company that provides SNS, and is configured to be able to provide the SNS of the SNS operating company.
  • an SNS application provided by an SNS operating company is installed in mobile terminals including the user terminal 200, and users of the mobile terminals can individually send and receive messages, images, and the like.
  • the SNS server 300 has a data receiving section 310 and an SNS processing section 320 .
  • the data receiving unit 310 receives post data such as messages and images posted to SNS from mobile terminals connected to the network NW.
  • the post data acquired by the data receiving unit 310 also includes SNS-compatible data (format-converted volumetric image) from the user terminal 200 .
  • the SNS processing unit 320 provides SNS services to mobile terminals connected to the network NW based on the posted data received by the data receiving unit 310 .
  • the network NW provides a place to publish personal diaries and photos, and to interact with other members via bulletin boards.
  • Message exchange services, chat services, and the like are also provided as tools for communication between users.
  • the user of the user terminal 200 can post the volumetric image edited by him/herself to the SNS.
  • the user terminal 200 is not limited to a mobile terminal such as a smartphone, but is configured with a display device having operation means, such as a VR device or AR device such as an HMD type or goggle type worn on the user's body, or a stationary PC. may be
  • the editor receives edits according to the user's operation on the user terminal 200, thereby generating edit information representing the edit content reflected in the volumetric image.
  • the editor executes editing processing on the volumetric image based on the generated editing information.
  • the editor generates SNS-compatible data by converting the format of the edited volumetric image as the editing result.
  • the editing process for the volumetric image may be executed not on the user terminal 200 on which the editor is installed, but on an external server connected to the user terminal 200 via the network NW.
  • the editor transmits edit information generated by receiving edits according to the user's operation on the user terminal 200 to the external server.
  • the external server performs editing processing on the volumetric image based on the editing information from the editor, and sends the edited volumetric image as the editing result to the editor.
  • the editor generates SNS-compatible data by converting the format of the editing result (edited volumetric image) from the external server.
  • the user terminal 200 does not need to edit the volumetric image, so the processing load on the user terminal 200 can be reduced.
  • step S1 the user terminal 200 determines whether or not an editor activation trigger has occurred.
  • the activation trigger of the editor is, for example, an operation on the content that the user browses, and in the example of FIG. 1, clicks on an image N10 in the news content that can be browsed by the sports news application.
  • the editor consists of a native application installed on the user terminal 200, and is activated based on the specified information embedded in the content viewed by the user (news content in the example of FIG. 1).
  • the designation information includes link information to the volumetric content managed by the content server 100 .
  • step S1 is repeated until an activation trigger occurs, and when the activation trigger occurs, the process proceeds to step S2.
  • step S2 the content receiving unit 210 obtains the volumetric content by requesting the content server 100 for the volumetric content corresponding to the activation trigger.
  • step S3 the rendering unit 220 renders the volumetric content acquired from the content server 100.
  • step S4 the edit accepting unit 230 accepts editing of the rendered volumetric image according to the user's operation on the user terminal 200. Editing of the volumetric image is accepted on an edit screen displayed on the user terminal 200 in response to activation of the editor.
  • FIG. 5 is a diagram showing an example of an edit screen.
  • a volumetric image with the model ML as the main subject (observation target) is displayed on the edit screen ES in FIG.
  • the model ML is a baseball pitcher, and the user can view how the model ML pitches in the volumetric image from various viewpoints.
  • buttons B31, B32, B33 and a timeline TL34 are displayed on the edit screen ES.
  • These GUIs are displayed so as to be superimposed on the volumetric image on the edit screen ES, but may be displayed in an area separate from the display area of the volumetric image.
  • the button B31 is a GUI for changing the viewpoint position of the volumetric image to a previously designated recommended viewpoint position.
  • the button B32 is a GUI for changing the viewpoint position of the volumetric image to the position of the balloons arranged in the three-dimensional space reproduced by the volumetric image. Although the details will be described later, by operating the button B32, these balloons are displayed in a three-dimensional space reproduced by the volumetric image, for example, arranged in a cubic lattice.
  • the button B33 is a GUI for adjusting the playback speed of volumetric images. For example, each time the button B33 is operated, the playback speed of the volumetric image changes step by step.
  • the timeline TL34 is a GUI for indicating the current temporal position in the total playback time of volumetric images.
  • a cursor C34 indicating the current temporal position is displayed so as to move along the timeline TL34 as time elapses.
  • the user can specify the viewpoint position of the volumetric image and add comments to the volumetric image.
  • a comment is added to a volumetric image by, for example, inputting text with a predetermined text editor at a position specified by the user on the volumetric image whose playback is paused, or converting the utterance content into text. It is done by
  • step S5 the edit receiving unit 230 determines whether editing of the volumetric image has been completed. Completion of volumetric image editing is determined by, for example, whether an editing completion button (not shown) has been operated.
  • Steps S4 and S5 are repeated until it is determined that the editing of the volumetric image is completed, and when it is determined that the editing of the volumetric image is completed, the process proceeds to step S6.
  • step S6 the data generation unit 240 generates SNS-compatible data by converting the format of the edited volumetric image.
  • step S7 the data transmission unit 250 transmits the generated SNS compatible data to the SNS server 300.
  • the user of the user terminal 200 can post the volumetric image edited by him/herself to the SNS.
  • FIG. 6 is a diagram showing an example of the format of SNS compatible data posted to SNS.
  • the SNS-compatible data P50 shown on the left side of FIG. 6 is a still image.
  • the SNS-corresponding data P50 is a still image at the time and viewpoint position specified in the volumetric image, and is a still image with a pointer PT51 and a comment CM52 attached to the position specified by the user.
  • a pointer PT51 is added to the position corresponding to the model's hand in the volumetric image
  • a comment CM52 is added to the model's hand.
  • the SNS-compatible data P60 shown on the right side of FIG. 6 is a moving image.
  • the SNS-corresponding data P60 is a moving image of a time interval specified in the volumetric image and a viewpoint position specified during that time interval, with a pointer PT61 and a comment CM62 added to the position specified by the user. be.
  • a pointer PT61 is given to the position corresponding to the leg (knee) of the model in the volumetric image, and a comment CM62 to the knee of the model is given.
  • a play button B63 for playing back a moving image is superimposed on the SNS correspondence data P60.
  • SNS-compatible data P50 and SNS-compatible data P60 shown in FIG. 6 may be combined with a predetermined effect image in addition to the pointer and comment.
  • the format of the SNS-compatible data may be a uniquely defined predetermined file format.
  • SNS-compatible data in such a file format is displayed or reproduced using a dedicated application.
  • the time and viewpoint position can be specified in the volumetric image, and a pointer, comment, or effect image can be added to the position specified by the user.
  • the user of the user terminal 200 can, for example, transmit his/her own viewpoint or opinion on a certain sport through the SNS, and the user of the SNS can deepen his or her understanding of the sport. That is, according to the technology according to the present disclosure, it is possible to add value to the viewing of volumetric content.
  • the editor is composed of a native application installed on the user terminal 200, and is activated on the user terminal 200 based on the specified information embedded in the content.
  • the editor may be composed of a web application and operated while being embedded in the content.
  • an editor is embedded inline in news content that can be browsed by a sports news application installed in the user terminal 200, and an edit screen ES is displayed on the news content.
  • the volumetric content P20 posted to the SNS is selected (clicked) by a general fan who browses the SNS, thereby triggering the activation of the editor on the user terminal 200.
  • a sports news application may be activated, or the editor may be activated. In this case, it is assumed that the mobile terminal of the user who is a general fan also has a sports news application and an editor installed.
  • editing information As described above, the editor generates editing information representing editing content reflected in the volumetric image, and executes editing processing on the volumetric image based on the editing information. A specific example of the edit information will be described below.
  • the editing information can include viewpoint information that specifies one or more viewpoint positions in the volumetric image.
  • Viewpoint information is generated by a user specifying a viewpoint position (viewpoint direction and angle) that the user wants to recommend to other users for a volumetric image that is a free-viewpoint video.
  • FIG. 9 is a diagram showing an example of viewpoint positions.
  • FIG. 9 shows an example of viewpoint positions facing the model ML, which is the main subject (observation target) in the volumetric image.
  • Viewpoint position 1 is a viewpoint position where the model ML is viewed from the right side of the model ML.
  • SNS-ready data P70-1 which is a still image or a moving image, is generated with the model ML within the angle of view from the right side.
  • Viewpoint position 2 is a viewpoint position facing the model ML from the right front of the model ML.
  • SNS-compatible data P70-2 which is a still image or a moving image of model ML within the angle of view from the front right, is generated.
  • the viewpoint position 3 is a viewpoint position that follows the motion of the model ML, and can be specified when the position of the model ML and its parts in the volumetric image can be tracked.
  • SNS-compatible data P70-3 which is a moving image captured within the angle of view while following the moving model ML, is generated.
  • Viewpoint positions such as viewpoint position 1 and viewpoint position 2 can be designated or changed by user operations on the user terminal 200 or the edit screen ES.
  • the position of the virtual camera in the volumetric image (viewpoint position ) is rotated.
  • the position (viewpoint position) of the virtual camera in the volumetric image may be translated in response to touch operations such as swiping, pinching in and pinching out on the screen of the user terminal 200 .
  • the balloon BLN is arranged in the three-dimensional space reproduced by the volumetric image as shown in FIG.
  • the balloons BLN are arranged, for example, evenly around the model ML to be observed.
  • the position (viewpoint position) of the virtual camera in the volumetric image is moved to the position of the balloon BLN touched by the user.
  • the direction of the viewpoint is the direction toward the model ML.
  • the user can specify the viewpoint position for the volumetric image.
  • Corresponding information that associates user attributes and viewpoint information may be added as meta information to the volumetric image (original volumetric content).
  • the viewpoint position is designated or recommended according to the attribute of the user who edits the volumetric image.
  • the editing information can include playback information specifying at least one of a playback interval and a playback speed in the volumetric image.
  • the user specifies the playback section that the user wants to post for the volumetric image (original volumetric content), and specifies the playback speed (slow playback, high-speed playback, etc.) in the specified playback section. generated by
  • FIG. 12 explains how to specify the playback section and playback speed.
  • a volumetric image original volumetric content
  • 20 seconds from playback start 10 seconds to 30 seconds is specified as a playback section to be used for SNS posting.
  • the playback speed of the beginning 1/3 and the end 1/3 is specified as normal playback (x 1.0 times), and the playback speed of the middle 1/3 is specified as slow playback ( x 0.2 times).
  • the user can specify the playback interval and playback speed for the volumetric image.
  • Editing information can include attachment information to be attached to objects in the volumetric image.
  • the attached information is generated by the user specifying the time in the volumetric image (original volumetric content) or specifying the area in the object at the specified time.
  • the added information may be any information that the user wants to add to the volumetric image as a comment, such as text, still images, moving images, and voice.
  • an object to which additional information is assigned may be, for example, a moving object such as a person to be observed in the volumetric image, or a stationary object existing around the observation target.
  • FIG. 13 is a diagram showing an example of attached information.
  • a volumetric image of a basketball game is displayed on the edit screen ES' in FIG. On the edit screen ES', it is assumed that the volumetric image of the time designated by the user is displayed.
  • a comment CM91 as attached information is attached to one player (person) on the basketball court, and a still image PIC92 as attached information is attached to another player (person). is given. Also, a comment CM93 as additional information is added to the goal set on the basketball court.
  • a comment CM91 and a still image PIC92 are attached information attached to a moving object, and a comment CM93 is attached information attached to a stationary object.
  • the given information can also be given to a designated region (specific part) of an object such as a moving object or a stationary object.
  • a moving object to be added moves, it is not easy to add added information to a specific part of the moving object.
  • FIG. 14 is a diagram showing another example of attached information.
  • the edit screen ES'' in FIG. 14 displays a volumetric image in which the dancing model ML is the main subject (observation target).
  • the left and right hands of the model ML are being tracked, and spherical icon images IC111 and IC112 indicating that they are being tracked are displayed following the respective positions of the left and right hands of the model ML.
  • the flag image FL121 is added as added information following the position of the right hand. ing.
  • part information indicating a specific part of a moving object such as a model that can be tracked can be added as meta information to the volumetric image (original volumetric content). good.
  • a list of part information is displayed. It is also possible to add additional information by following the position of .
  • Editing information can include an effect image that is composited with the volumetric image.
  • the effect image is generated for the purpose of more effectively and intuitively expressing the content of the attached information such as the comment described above.
  • an effect image EP131 corresponding to the shape of the model ML is superimposed on the volumetric image.
  • the effect image EP131 is an effect image of flames, which can be used to express the enthusiasm of the baseball pitcher who is the model ML.
  • an effect image EP132 for a specific position at a specified specific time is superimposed on the volumetric image.
  • the effect image EP132 is an effect image of a flame that draws an arc following the movement of the hand of the model ML. can be used for
  • an effect image other than flames an alter ego image expressing the alter ego of the model ML, or the like may be prepared.
  • the above-described edited information may be prepared as a data set according to the attributes of SNS users (general fans) who are viewers of SNS-compatible data posted on SNS.
  • the edited contents reflected in the volumetric image are switched according to the general fan who wants to transmit his/her own viewpoint and opinion by the user of the user terminal 200 .
  • the user of the user terminal 200 can more accurately transmit his/her own viewpoint and opinion through the SNS.
  • the range of editing content reflected in the volumetric image may be limited based on the restriction information that limits the range of editing content represented by the various types of editing information described above.
  • the editing information editing information within the range of editing contents restricted based on the restriction information is generated.
  • the restriction information shall be included in the meta-information of the volumetric content, for example by the provider of the volumetric image (original volumetric content).
  • the restriction information may restrict the viewpoint positions that can be specified by the user.
  • Playback section In a volumetric image, there may be scenes in which the provider of the volumetric image wishes to avoid adding additional information or synthesizing effect images.
  • the restriction information for example, as shown in FIG. 17, for a volumetric image with a total playback time of 60 seconds, only 20 seconds from playback start 10 seconds to 30 seconds are editable playback sections. may be restricted to
  • ⁇ Position (area) where the attached information is attached With expectations for more sound postings on SNS, it may be desirable to limit the position (area) to which additional information such as comments is provided. In this case, the restriction information may restrict the designation of the position where the user gives the added information in the editor.
  • the restriction information may restrict the contents of the attached information (the contents of the text, the attachment of images, etc.) given by the user in the editor.
  • the restriction information may restrict the effect image synthesized by the user in the editor.
  • FIG. 18 is a block diagram showing a hardware configuration example of a computer that executes the series of processes described above by a program.
  • a user terminal 200 as a data processing device to which the technology according to the present disclosure can be applied is implemented by a computer 500 having the configuration shown in FIG.
  • the CPU 501 , ROM (Read Only Memory) 502 and RAM (Random Access Memory) 503 are interconnected by a bus 504 .
  • An input/output interface 505 is further connected to the bus 504 .
  • the input/output interface 505 is connected to an input unit 506 such as a keyboard and a mouse, and an output unit 507 such as a display and a speaker.
  • the input/output interface 505 is also connected to a storage unit 508 including a hard disk or nonvolatile memory, a communication unit 509 including a network interface, and a drive 510 for driving a removable medium 511 .
  • the CPU 501 loads a program stored in the storage unit 508 into the RAM 503 via the input/output interface 505 and the bus 504 and executes the above-described series of processes. is done.
  • the programs executed by the CPU 501 are recorded on the removable media 511, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and installed in the storage unit 508.
  • the program executed by the computer may be a program in which processing is performed in chronological order according to the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • an editing reception unit that receives editing of the volumetric image in accordance with a user's operation;
  • a data processing device comprising: a data generation unit that generates converted data in which the edited volumetric image is converted into a format that can be output by another device.
  • the format includes a moving image, a still image, and a uniquely defined file format.
  • the format includes a file format that can be posted to a predetermined SNS (Social Networking Service).
  • SNS Social Networking Service
  • the edit reception unit and the data generation unit configure an editor for editing the volumetric image,
  • the data processing device according to any one of (1) to (4), wherein the editor operates according to an operation on content viewed by the user.
  • (6) The data processing device according to (5), wherein the editor is configured by a native application and is activated based on designation information embedded in the content.
  • (7) The data processing device according to (5), wherein the editor is configured by a web application and operates while being embedded in the content.
  • the data processing device (12) The data processing device according to (12), wherein the attached information is attached based on meta information, which is included in the volumetric image and indicates an area of the object to which the attached information can be attached.
  • the object is a moving object or a stationary object.
  • the attached information includes at least one of text, a still image, a moving image, and sound.
  • the editing information includes an effect image to be combined with the volumetric image.
  • the volumetric image includes restriction information that limits the range of editing content represented by the editing information; (9) The data processing device according to (9), wherein the edit receiving unit generates the edit information within a limited range of edit content based on the limit information.
  • the data processing device Accepts editing of volumetric images according to user operations, A data processing method, wherein the edited volumetric image is converted to a format that can be output by another device.
  • (20) to the computer Accepts editing of volumetric images according to user operations, A program for executing a process of generating converted data in which the edited volumetric image is converted into a format that can be output by another device.
  • Data processing system 100 Content server 110 Content management unit 120 Content distribution unit 200 User terminal 210 Content reception unit 220 Rendering unit 230 Edit reception unit 240 Data generation unit 250 Data transmission unit 260 Storage control section, 300 SNS server, 310 data receiving section, 320 SNS processing section

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本開示は、ボリュメトリックコンテンツの視聴に付加価値を与えることができるようにするデータ処理装置、データ処理方法、およびプログラムに関する。 編集受付部は、ユーザの操作に応じてボリュメトリック画像の編集を受け付け、データ生成部は、編集されたボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データを生成する。本開示は、ボリュメトリックコンテンツを編集可能なアプリケーションに適用することができる。

Description

データ処理装置、データ処理方法、およびプログラム
 本開示は、データ処理装置、データ処理方法、およびプログラムに関し、特に、ボリュメトリックコンテンツの視聴に付加価値を与えるようにしたデータ処理装置、データ処理方法、およびプログラムに関する。
 複数のカメラにより撮影した映像に基づいて、実際にはカメラが置かれていない仮想視点からの映像視聴を可能とする自由視点映像技術が知られている。例えば、特許文献1には、自由視点映像のリプレイ映像を低負荷で構築・再生する技術が開示されている。
 近年、空間全体を三次元データ化するボリュメトリックビデオ技術は、スポーツや音楽、エンタテインメントなどの様々な分野に活用の幅が広げられている。
特開2019-145017号公報
 現状、ボリュメトリックビデオ技術により提供されるボリュメトリックコンテンツを視聴する場合において、視聴者の視点や見解を、そのコンテンツに反映させることはできなかった。
 本開示は、このような状況に鑑みてなされたものであり、ボリュメトリックコンテンツの視聴に付加価値を与えることできるようにするものである。
 本開示のデータ処理装置は、ユーザの操作に応じてボリュメトリック画像の編集を受け付ける編集受付部と、編集された前記ボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データを生成するデータ生成部とを備えるデータ処理装置である。
 本開示のデータ処理方法は、データ処理装置が、ユーザの操作に応じてボリュメトリック画像の編集を受け付け、編集された前記ボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データを生成するデータ処理方法である。
 本開示のプログラムは、コンピュータに、ユーザの操作に応じてボリュメトリック画像の編集を受け付け、編集された前記ボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データを生成する処理を実行させるためのプログラムである。
 本開示においては、ユーザの操作に応じてボリュメトリック画像の編集が受け付けられ、編集された前記ボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データが生成される。
本開示に係る技術を適用したコンテンツ提供サービスの概要を示す図である。 本開示の実施の形態に係るデータ処理システムの構成例を示す図である。 エディタの機能について説明する図である。 エディタの動作の流れについて説明するフローチャートである。 エディット画面の例を示す図である。 SNS対応データのフォーマットの例を示す図である。 Webアプリケーションとしてのエディタの例を示す図である。 SNS対応データの活用例について説明する図である。 視点位置の例を示す図である。 視点位置の指定手段の例を示す図である。 視点位置の指定手段の例を示す図である。 再生区間と再生速度の指定について説明する図である。 付与情報の例を示す図である。 付与情報の例を示す図である。 エフェクト画像の例を示す図である。 エフェクト画像の例を示す図である。 編集内容の制限の例を示す図である。 コンピュータのハードウェアの構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.コンテンツ提供サービスの概要
 2.データ処理システムの構成と動作
 3.編集情報の具体例
 4.コンピュータの構成例
<1.コンテンツ提供サービスの概要>
 図1は、本開示に係る技術を適用したコンテンツ提供サービスの概要を示す図である。
 図1に示されるコンテンツ提供サービスにおいては、ユーザU1が、ボリュメトリックコンテンツを所望のアングル(視点)から視聴するとともに、そのコンテンツにコメントなどを付与してSNS(Social Networking System)に投稿することができる。一方、ユーザU2は、ユーザU1独自の視点でのコンテンツを、そのSNSを介して手軽に視聴することができる。
 ユーザU1は、例えば、特定のスポーツや音楽などに精通したコアなファンであり、ユーザU2は、それらスポーツや音楽などに興味のある一般的なファンである。
 図1に示されるコンテンツ提供サービスにおいて、例えば、ユーザU1が、自身のスマートフォンにインストールされているスポーツニュースアプリケーション(アプリ)により閲覧できるニュースコンテンツ内の画像N10を選択(クリック)する。そうすると、ユーザU1のスマートフォンにおいて、ボリュメトリックコンテンツを編集するためのボリュメトリックエディタ(以下、単にエディタともいう)が起動する。
 画像N10が、あるスポーツの試合の一場面を写したものである場合、画像N10が選択されることで、そのスポーツの試合を複数台のカメラにより撮影することで生成されたボリュメトリックコンテンツが、所定のコンテンツサーバからダウンロードされる。ユーザU1は、エディタが起動することでスマートフォン上に表示されるエディット画面を操作することで、コンテンツサーバからダウンロードされたボリュメトリックコンテンツを編集することができる。具体的には、ユーザU1は、ボリュメトリックコンテンツの視点位置を指定したり、ボリュメトリックコンテンツに対してコメントを付与したりできる。
 ボリュメトリックコンテンツの編集が完了すると、エディタは、編集されたボリュメトリックコンテンツのフォーマットを、SNSに投稿可能なファイル形式に変換し、得られた変換データ(SNS対応データ)を、SNSサーバに送信する。
 ユーザU2は、自身のスマートフォンにおいてSNSにアクセスすることで、ユーザU1が編集したボリュメトリックコンテンツP20を、ユーザU1が入力したテキストデータとともに閲覧することができる。
 このように、本開示に係る技術を適用したコンテンツ提供サービスにおいては、ユーザU1は、例えばあるスポーツに対する独自の視点や見解を発信することができ、ユーザU2は、そのスポーツに対する理解を深めることができる。すなわち、本開示に係る技術によれば、ボリュメトリックコンテンツの視聴に付加価値を与えることができる。
<2.データ処理システムの構成と動作>
 以下においては、図1のコンテンツ提供サービスを実現するデータ処理システムの構成と動作について説明する。
(データ処理システムの全体構成)
 図2は、本開示の実施の形態に係るデータ処理システムの構成例を示す図である。
 図2のデータ処理システム10は、コンテンツサーバ100、ユーザ端末200、およびSNSサーバ300を含むように構成される。
 データ処理システム10において、ユーザ端末200は、インターネットなどのネットワークNWを介して、いわゆるクラウド上に構築されたコンテンツサーバ100やSNSサーバ300と接続される。
 コンテンツサーバ100は、ボリュメトリックコンテンツをユーザ端末200に配信する配信サーバとして構成される。コンテンツサーバ100は、コンテンツ管理部110とコンテンツ配信部120を備えている。
 コンテンツ管理部110は、スポーツや音楽、エンタテインメントなどの様々な分野において生成された自由視点映像であるボリュメトリックコンテンツを蓄積し、管理する。
 コンテンツ配信部120は、ユーザ端末200からの要求に応じて、コンテンツ管理部110によって管理されているボリュメトリックコンテンツを、ユーザ端末200に対して配信する。
 ユーザ端末200は、ボリュメトリックコンテンツを視聴可能なスマートフォンなどの携帯端末として構成され、ボリュメトリックコンテンツを編集するためのエディタがインストールされている。ユーザ端末200(エディタ)は、コンテンツ受信部210、レンダリング部220、編集受付部230、データ生成部240、データ送信部250、および蓄積制御部260を含むように構成される。
 コンテンツ受信部210は、ユーザ端末200に対するユーザの所定の操作を起動トリガとして、コンテンツサーバ100に対して、ボリュメトリックコンテンツを要求する。コンテンツ受信部210は、要求に応じてコンテンツサーバ100から配信されてくるボリュメトリックコンテンツを受信し、レンダリング部220に供給する。
 レンダリング部220は、コンテンツ受信部210からのボリュメトリックコンテンツをレンダリングする。レンダリングされたボリュメトリックコンテンツとしての三次元画像データ(以下、ボリュメトリック画像という)は、編集受付部230に供給される。
 編集受付部230は、ユーザ端末200に対するユーザの操作に応じて、レンダリング部220からのボリュメトリック画像の編集を受け付ける。ボリュメトリック画像の編集には、上述したような、ボリュメトリックコンテンツの視点位置の指定や、ボリュメトリックコンテンツに対するコメントの付与などが含まれる。編集されたボリュメトリック画像は、データ生成部240と蓄積制御部260に供給される。
 データ生成部240は、編集受付部230からの編集後のボリュメトリック画像を、他の装置において出力可能なフォーマットに変換した変換データを生成する。
 具体的には、変換データのフォーマットは、動画像、静止画像、および、独自に定義された所定のファイル形式などを含み、所定のSNSに投稿可能なファイル形式とされる。すなわち、変換データは、SNSの対応フォーマットに変換されたSNS対応データともいえる。データ生成部240により生成されたSNS対応データは、データ送信部250に供給される。
 データ送信部250は、ユーザ端末200に対するユーザの操作に応じて、データ生成部240からのSNS対応データを、ネットワークNWを介して、SNSサーバ300に送信する。
 蓄積制御部260は、編集受付部230からの編集後のボリュメトリック画像を、図示せぬ記憶領域に蓄積する。当該記憶領域に蓄積された編集後のボリュメトリック画像は、ユーザ端末200のユーザによって改めて視聴されたり、再編集されたりする。
 SNSサーバ300は、SNSを提供するSNS運営会社により管理され、当該SNS運営会社のSNSを提供可能に構成される。SNSとしては、ユーザ端末200を含む携帯端末に、SNS運営会社が提供しているSNSアプリがインストールされ、各携帯端末のユーザ同士が、個々にメッセージや画像などを送受できるものであればよい。SNSサーバ300は、データ受信部310とSNS処理部320を備えている。
 データ受信部310は、ネットワークNWに接続された携帯端末から、SNSに投稿されるメッセージや画像などの投稿データを受信する。データ受信部310により取得される投稿データには、ユーザ端末200からのSNS対応データ(フォーマット変換されたボリュメトリック画像)も含まれる。
 SNS処理部320は、ネットワークNWに接続された携帯端末に対して、データ受信部310が受信した投稿データに基づいて、SNSサービスを提供する。
 SNSサービスのユーザに対しては、個人的な日記や写真を公開したり、掲示板を介して他の会員と交流したりする場が、ネットワークNW上で提供される。また、ユーザ間で意思の疎通を図るためのツールとして、メッセージ交換サービスやチャットサービスなども提供される。
 以上のような構成により、ユーザ端末200のユーザは、自身が編集したボリュメトリック画像をSNSに投稿することができる。
 なお、ユーザ端末200は、スマートフォンなどの携帯端末に限らず、ユーザの身体に装着されるHMD型やゴーグル型などのVRデバイスやARデバイス、据え置き型のPCなど、操作手段を備える表示デバイスで構成されてもよい。
(エディタの機能)
 ここで、図3を参照して、ユーザ端末200にインストールされるエディタの機能について説明する。
 A図に示されるように、エディタは、ユーザ端末200に対するユーザの操作に応じた編集を受け付けることで、ボリュメトリック画像に反映される編集内容を表す編集情報を生成する。
 エディタは、生成された編集情報に基づいて、ボリュメトリック画像に対する編集処理を実行する。
 エディタは、編集結果としての編集後のボリュメトリック画像のフォーマットを変換することで、SNS対応データを生成する。
 ボリュメトリック画像に対する編集処理は、エディタがインストールされたユーザ端末200上ではなく、ユーザ端末200とネットワークNWを介して接続される外部サーバ上で実行されてもよい。
 この場合、B図に示されるように、エディタは、ユーザ端末200に対するユーザの操作に応じた編集を受け付けることで生成した編集情報を、外部サーバに送信する。
 外部サーバは、エディタからの編集情報に基づいて、ボリュメトリック画像に対する編集処理を実行し、編集結果としての編集後のボリュメトリック画像を、エディタに送信する。
 エディタは、外部サーバからの編集結果(編集後のボリュメトリック画像)のフォーマットを変換することで、SNS対応データを生成する。
 B図の構成によれば、ユーザ端末200上でボリュメトリック画像に対する編集処理を実行する必要がなくなるので、ユーザ端末200の処理負荷を低減させることができる。
(エディタの動作)
 次に、図4のフローチャートを参照して、ユーザ端末200におけるエディタの動作の流れについて説明する。図4の処理は、例えば図1を参照して説明したような、Webサイトとしてのニュースコンテンツを閲覧可能な、ユーザ端末200にインストールされているスポーツニュースアプリ(専用アプリケーション)や、Webブラウザが起動している状態で開始される。
 ステップS1において、ユーザ端末200は、エディタの起動トリガが発生したか否かを判定する。エディタの起動トリガは、例えばユーザが閲覧するコンテンツに対する操作とされ、図1の例においては、スポーツニュースアプリにより閲覧できるニュースコンテンツ内の画像N10のクリックなどとされる。
 すなわち、エディタは、ユーザ端末200にインストールされているネイティブアプリケーションで構成され、ユーザが閲覧するコンテンツ(図1の例では、ニュースコンテンツ)に埋め込まれた指定情報に基づいて起動する。
 例えば、ユーザにより閲覧されているニュースコンテンツがHTML(HyperText Markup Language)で記述されている場合、<a href="エディタ"><img src="画像N10のファイル名"></a>のようなタグが記述されるようにする。この場合、ニュースコンテンツ内の画像N10がクリックされることで、エディタを起動させることができる。
 また、指定情報には、コンテンツサーバ100において管理されているボリュメトリックコンテンツへのリンク情報も含まれるようにする。
 さて、ステップS1は、起動トリガが発生するまで繰り返され、起動トリガが発生するとステップS2に進む。
 ステップS2において、コンテンツ受信部210は、コンテンツサーバ100に対して、起動トリガに対応したボリュメトリックコンテンツを要求することで、当該ボリュメトリックコンテンツを取得する。
 ステップS3において、レンダリング部220は、コンテンツサーバ100から取得されたボリュメトリックコンテンツをレンダリングする。
 ステップS4において、編集受付部230は、ユーザ端末200に対するユーザの操作に応じて、レンダリングされたボリュメトリック画像の編集を受け付ける。ボリュメトリック画像の編集は、エディタの起動に応じてユーザ端末200上に表示されるエディット画面において受け付けられる。
 図5は、エディット画面の例を示す図である。
 図5のエディット画面ESには、モデルMLを主な被写体(観察対象)としたボリュメトリック画像が表示されている。図5の例では、モデルMLは野球のピッチャーとされ、ユーザは、ボリュメトリック画像においてモデルMLが投球する様子を、様々な視点位置から視聴することができる。
 また、図5のエディット画面ESには、ボリュメトリック画像を編集するためのGUI(Graphical User Interface)が表示されている。図5の例では、エディット画面ES上に、ボタンB31,B32,B33と、タイムラインTL34が表示されている。これらのGUIは、エディット画面ESにおいてボリュメトリック画像に重畳されるようにして表示されているが、ボリュメトリック画像の表示領域と区別された領域に表示されてもよい。
 ボタンB31は、ボリュメトリック画像の視点位置を、あらかじめ指定されたおすすめ視点位置に変更するためのGUIである。
 ボタンB32は、ボリュメトリック画像の視点位置を、ボリュメトリック画像で再現される三次元空間内に配列されたバルーンの位置に変更するためのGUIである。詳細は後述するが、ボタンB32が操作されることで、これらのバルーンが、ボリュメトリック画像で再現される三次元空間内で、例えば立方格子上に配列されるようにして表示される。
 ボタンB33は、ボリュメトリック画像の再生速度を調整するためのGUIである。例えば、ボタンB33が操作される度に、ボリュメトリック画像の再生速度が、段階的に変化する。
 タイムラインTL34は、ボリュメトリック画像の総再生時間における、現時点での時間的な位置を示すためのGUIである。タイムラインTL34においては、現時点での時間的な位置を示すカーソルC34が、時間の経過とともに、タイムラインTL34上を移動するようにして表示される。
 ユーザは、エディット画面ESにおいて、これらのGUIを操作することで、ボリュメトリック画像の視点位置を指定したり、ボリュメトリック画像に対してコメントを付与したりすることができる。ボリュメトリック画像に対するコメントの付与は、例えば、再生が一時停止されたボリュメトリック画像上で、ユーザによって指定された位置に対して、所定のテキストエディタによりテキストが入力されたり、発話内容がテキスト変換されたりすることで行われる。
 図4のフローチャートに戻り、ステップS5において、編集受付部230は、ボリュメトリック画像の編集が完了したか否かを判定する。ボリュメトリック画像の編集の完了は、例えば図示せぬ編集完了ボタンが操作された否かによって判定される。
 ボリュメトリック画像の編集が完了したと判定されるまで、ステップS4,S5は繰り返され、ボリュメトリック画像の編集が完了したと判定されるとステップS6に進む。
 ステップS6において、データ生成部240は、編集されたボリュメトリック画像のフォーマットを変換することでSNS対応データを生成する。
 そして、ステップS7において、データ送信部250は、生成されたSNS対応データをSNSサーバ300に送信する。
 このようにして、ユーザ端末200のユーザは、自身が編集したボリュメトリック画像をSNSに投稿することができる。
 図6は、SNSに投稿されるSNS対応データのフォーマットの例を示す図である。
 図6左側に示されるSNS対応データP50は、静止画像である。SNS対応データP50は、ボリュメトリック画像において指定された時間と視点位置の静止画像であって、ユーザによって指定された位置にポインタPT51とコメントCM52が付与された静止画像である。この例では、ボリュメトリック画像におけるモデルの手に対応する位置にポインタPT51が付与されるとともに、そのモデルの手に対するコメントCM52が付与されている。
 図6右側に示されるSNS対応データP60は、動画像である。SNS対応データP60は、ボリュメトリック画像において指定された時間区間と、その間において指定された視点位置の動画像であって、ユーザによって指定された位置にポインタPT61とコメントCM62が付与された動画像である。この例では、ボリュメトリック画像におけるモデルの脚(膝)に対応する位置にポインタPT61が付与されるとともに、そのモデルの膝に対するコメントCM62が付与されている。また、SNS対応データP60には、動画像を再生するための再生ボタンB63が重畳されている。
 なお、図6に示されるSNS対応データP50やSNS対応データP60には、ポインタやコメントに加えて、所定のエフェクト画像が合成されてもよい。
 また、上述したように、SNS対応データのフォーマットは、独自に定義された所定のファイル形式であってもよい。このようなファイル形式のSNS対応データは、専用のアプリケーションを用いて表示されたり、再生されたりする。このようなSNS対応データにおいても、ボリュメトリック画像において時間と視点位置が指定されたり、ユーザに指定された位置にポインタやコメント、エフェクト画像が付与されたりすることができる。
 以上の処理によれば、ユーザ端末200のユーザは、例えばあるスポーツに対する独自の視点や見解を、SNSを通じて発信することができ、そのSNSのユーザは、そのスポーツに対する理解を深めることができる。すなわち、本開示に係る技術によれば、ボリュメトリックコンテンツの視聴に付加価値を与えることが可能となる。
 なお、以上においては、エディタは、ユーザ端末200にインストールされているネイティブアプリで構成され、コンテンツに埋め込まれた指定情報に基づいて、ユーザ端末200上で起動するものとした。
 これ以外にも、図7に示されるように、エディタは、Webアプリケーションで構成され、コンテンツに埋め込まれた状態で動作するようにしてもよい。図7の例では、例えば、ユーザ端末200にインストールされているスポーツニュースアプリにより閲覧できるニュースコンテンツ内に、エディタがインラインで埋め込まれており、ニュースコンテンツ上にエディット画面ESが表示されている。
 また、図8に示されるように、SNSに投稿されたボリュメトリックコンテンツP20が、そのSNSを閲覧する一般的なファンによって選択(クリック)されることで、ユーザ端末200においてエディタの起動トリガとなったスポーツニュースアプリが起動したり、当該エディタが起動したりしてもよい。この場合、一般的なファンであるユーザの携帯端末にも、スポーツニュースアプリやエディタがインストールされていることが前提となる。
<3.編集情報の具体例>
 上述したように、エディタは、ボリュメトリック画像に反映される編集内容を表す編集情報を生成し、その編集情報に基づいて、ボリュメトリック画像に対する編集処理を実行する。以下においては、編集情報の具体例について説明する。
(視点情報)
 編集情報は、ボリュメトリック画像における1または複数に視点位置を指定する視点情報を含むことができる。
 視点情報は、ユーザが、自由視点映像であるボリュメトリック画像に対して、他のユーザにおすすめしたい視点位置(視点の方向とアングル)を指定することで生成される。
 図9は、視点位置の例を示す図である。
 図9には、ボリュメトリック画像における主な被写体(観察対象)であるモデルMLを臨む視点位置の例が示されている。
 視点位置1は、モデルMLの右側方からモデルMLを臨む視点位置である。視点位置1が指定されることで、モデルMLを右側方から画角内に収めた静止画像または動画像であるSNS対応データP70-1が生成される。
 視点位置2は、モデルMLの右前方からモデルMLを臨む視点位置である。視点位置2が指定されることで、モデルMLを右前方から画角内に収めた静止画像または動画像であるSNS対応データP70-2が生成される。
 視点位置3は、モデルMLの動作に追従する視点位置であって、ボリュメトリック画像におけるモデルMLやその部位の位置がトラッキング可能な場合に指定可能とされる。視点位置3が指定されることで、動きのあるモデルMLを追従しながら画角内に収めた動画像であるSNS対応データP70-3が生成される。
 視点位置1や視点位置2のような視点位置は、ユーザ端末200やエディット画面ESに対するユーザの操作により、指定したり変更したりすることができる。
 例えば、図10のA図に示されるように、ユーザ端末200の画面上にxy平面を定義したとする。この場合、x軸まわりの回転(ピッチ)とy軸まわりの回転(ヨー)によるユーザ端末200の傾きに合わせて、同B図に示されるように、ボリュメトリック画像における仮想カメラの位置(視点位置)を回転移動させるようにする。さらに、ユーザ端末200の画面に対するスワイプやピンチイン・ピンチアウトなどのタッチ操作に応じて、ボリュメトリック画像における仮想カメラの位置(視点位置)を平行移動させるようにしてもよい。
 また、上述したエディット画面ESのボタンB32が操作されることで、図11に示されるように、ボリュメトリック画像で再現される三次元空間内に、バルーンBLNが配置されるようにする。バルーンBLNは、例えば観察対象であるモデルMLの周囲に均等に配置される。この場合、ユーザによりタッチされたバルーンBLNの位置に、ボリュメトリック画像における仮想カメラの位置(視点位置)を移動させるようにする。このとき、タッチされたバルーンBLNの位置がいかなる位置であっても、視点の方向は、モデルMLに向かう方向とされる。
 以上のようにして、ユーザは、ボリュメトリック画像に対して視点位置を指定することができる。
 なお、ボリュメトリック画像(元のボリュメトリックコンテンツ)に、ユーザの属性と視点情報とを対応付ける対応情報が、メタ情報として付加されるようにしてもよい。この場合、ボリュメトリック画像を編集するユーザの属性に応じて、視点位置が指定されたり推薦されたりする。
(再生情報)
 編集情報は、ボリュメトリック画像における再生区間および再生速度の少なくともいずれかを指定する再生情報を含むことができる。
 再生情報は、ユーザが、ボリュメトリック画像(元のボリュメトリックコンテンツ)に対して、投稿したい再生区間を指定したり、指定された再生区間における再生速度(スロー再生、高速再生など)を指定することで生成される。
 図12は、再生区間と再生速度の指定について説明する。
 図12の例では、総再生時間が60秒のボリュメトリック画像(元のボリュメトリックコンテンツ)に対して、再生開始10秒から30秒までの20秒間が、SNS投稿に用いる再生区間として指定されている。また、指定された再生区間のうち、序盤3分の1と終盤3分の1の再生速度が通常再生(×1.0倍)に指定され、中盤3分の1の再生速度がスロー再生(×0.2倍)に指定されている。
 以上のようにして、ユーザは、ボリュメトリック画像に対して再生区間や再生速度を指定することができる。
(付与情報)
 編集情報は、ボリュメトリック画像における物体に付与される付与情報を含むことができる。
 付与情報は、ユーザが、ボリュメトリック画像(元のボリュメトリックコンテンツ)において時間を指定したり、指定したその時間の物体において領域を指定したりすることで生成される。
 付与情報は、テキスト、静止画像や動画像、音声など、ユーザがコメントとしてボリュメトリック画像に付加したい情報であればよい。また、付与情報の付与対象となる物体は、例えば、ボリュメトリック画像において観察対象となる人物などの動物体であってもよいし、観察対象の周囲に存在する静止物体であってもよい。
 図13は、付与情報の例を示す図である。
 図13のエディット画面ES’には、バスケットボールのゲームの様子を撮影したボリュメトリック画像が表示されている。エディット画面ES’においては、ユーザにより指定された時間のボリュメトリック画像が表示されているものとする。
 図13の例では、バスケットボールコートにおける1人の選手(人物)に対して、付与情報としてのコメントCM91が付与され、他の1人の選手(人物)に対して、付与情報としての静止画像PIC92が付与されている。また、バスケットボールコートに設置されているゴールに対して、付与情報としてのコメントCM93が付与されている。この例において、コメントCM91と静止画像PIC92は、動物体に付与された付与情報であり、コメントCM93は、静止物体に付与された付与情報である。
 また、付与情報は、動物体や静止物体などの物体全体に付与される以外にも、動物体や静止物体などの物体において指定された領域(特定部位)に付与されるようにもできる。しかしながら、付与対象となる動物体に動きがある場合、その動物体の特定部位に付与情報を付与することは容易ではない。
 この場合、ボリュメトリック画像において時間を指定した上で、その時間の動物体において領域(特定部位)を指定することで、その動物体の特定部位に付与情報を付与することができる。これにより、図6を参照して説明したSNS対応データP50やSNS対応データP60のように、動物体であるモデルの手や膝に対して、コメントなどの付与情報を付与することが可能となる。
 さらに、ボリュメトリック画像におけるモデルなどの動物体やその特定部位の位置がトラッキング可能な場合、その位置に追従するようにして、付与情報が付与されるようにしてもよい。
 図14は、付与情報の他の例を示す図である。
 図14のエディット画面ES’’には、ダンスをしているモデルMLを主な被写体(観察対象)としたボリュメトリック画像が表示されている。エディット画面ES’’においては、モデルMLの左右の手がトラッキングされており、トラッキングされていることを示す球状のアイコン画像IC111,IC112が、モデルMLの左右の手それぞれの位置に追従して表示されているものとする。
 さらに、図14の例では、付与情報の付与対象としたいモデルMLの右手(アイコン画像IC111)がユーザにより選択されることで、その右手の位置に追従する付与情報として、旗画像FL121が付与されている。
 また、ボリュメトリック画像(元のボリュメトリックコンテンツ)に、トラッキング可能なモデルなどの動物体の特定部位(付与情報が付与可能な領域)を示す部位情報が、メタ情報として付加されるようにしてもよい。この場合、図14のエディット画面ES’’の右上に示されるように、部位情報のリストが表示され、対応する部位に所望の付与情報を表す入力情報を入力することで、付与対象としたい部位の位置に追従するようにして、付与情報が付与されるようにもできる。
(エフェクト画像)
 編集情報は、ボリュメトリック画像に合成されるエフェクト画像を含むことができる。
 エフェクト画像は、上述したコメントなどの付与情報の内容を、より効果的に、かつ、直感的に表現する目的で生成される。
 例えば、図15のエディット画面ESに表示されているボリュメトリック画像においては、モデルMLの形状に対応したエフェクト画像EP131が、ボリュメトリック画像に重畳されている。図15の例では、エフェクト画像EP131は、炎のエフェクト画像とされ、モデルMLである野球のピッチャーの気持ちの高まりを演出するような場合に利用することができる。
 また、図16のエディット画面ESに表示されているボリュメトリック画像においては、指定された特定の時間における特定の位置に対するエフェクト画像EP132が、ボリュメトリック画像に重畳されている。図16の例では、エフェクト画像EP132は、モデルMLの手の動きに追従して弧を描く炎のエフェクト画像とされ、モデルMLである野球のピッチャーの投球フォームを豪快に見せるような演出する場合に利用することができる。
 なお、エフェクト画像としては、炎以外のエフェクト画像や、モデルMLの分身を表現した分身画像などが用意されていてもよい。
 上述した編集情報は、SNSに投稿されたSNS対応データの視聴者となるSNSのユーザ(一般的なファン)の属性に応じたデータセットとして用意されてもよい。この場合、ユーザ端末200のユーザが自身の視点や見解を発信したい一般的なファンに合わせて、ボリュメトリック画像に反映される編集内容が切り替わるようになる。これにより、ユーザ端末200のユーザは、SNSを通じて、より的確に自身の視点や見解を発信することができる。
(編集内容の制限)
 以上においては、ボリュメトリック画像に反映される編集内容を表す編集情報の具体例について説明した。しかしながら、ボリュメトリック画像(ボリュメトリックコンテンツ)によっては、編集内容に制限を設けることが求められるケースも考えられる。
 そこで、上述したような各種の編集情報で表される編集内容の範囲を制限する制限情報に基づいて、ボリュメトリック画像に反映される編集内容の範囲が制限されるようにしてもよい。この場合、編集情報として、制限情報に基づいて制限された編集内容の範囲の編集情報が生成される。制限情報は、例えば、ボリュメトリック画像(元のボリュメトリックコンテンツ)の提供者によって、ボリュメトリックコンテンツのメタ情報に含まれるものとする。
・視点位置
 指定される視点位置として、観察対象となる人物に極端に接近した視点位置や、その人物を極端に下から見上げるような視点位置を制限したい場合がある。この場合、制限情報によって、ユーザが指定可能な視点位置が制限されるようにしてもよい。
・再生区間
 ボリュメトリック画像において、そのボリュメトリック画像の提供者にとって付与情報の付与やエフェクト画像の合成を避けてほしいシーンがある場合がある。この場合、制限情報によって、例えば図17に示されるように、総再生時間が60秒のボリュメトリック画像に対して、再生開始10秒から30秒までの20秒間のみが、編集可能な再生区間となるよう制限されるようにしてもよい。
・付与情報が付与される位置(領域)
 SNSへのより健全な投稿が期待される中では、コメントなどの付与情報が付与される位置(領域)が限定されることが望ましい場合がある。この場合、制限情報によって、エディタにおいてユーザにより付与情報が付与される位置の指定が制限されるようにしてもよい。
・付与情報の内容
 付与情報(テキスト、静止画像、動画像、音声など)の内容として、SNSでの共有に適さない内容を制限したい場合がある。この場合、制限情報によって、エディタにおいてユーザにより付与される付与情報の内容(文章の内容、画像の添付など)が制限されるようにしてもよい。
・エフェクト画像
 ボリュメトリック画像に対するエフェクト画像の合成を制限したい場合がある。この場合、制限情報によって、エディタにおいてユーザにより合成されるエフェクト画像が制限されるようにしてもよい。
<4.コンピュータの構成例>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 本開示に係る技術を適用し得るデータ処理装置としての、ユーザ端末200は、図18に示される構成を有するコンピュータ500により実現される。
 CPU501、ROM(Read Only Memory)502、RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウスなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507が接続される。また、入出力インタフェース505には、ハードディスクや不揮発性のメモリなどよりなる記憶部508、ネットワークインタフェースなどよりなる通信部509、リムーバブルメディア511を駆動するドライブ510が接続される。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを入出力インタフェース505およびバス504を介してRAM503にロードして実行することにより、上述した一連の処理が行われる。
 CPU501が実行するプログラムは、例えばリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部508にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたときなどの必要なタイミングで処理が行われるプログラムであっても良い。
 本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本開示は以下のような構成をとることができる。
(1)
 ユーザの操作に応じてボリュメトリック画像の編集を受け付ける編集受付部と、
 編集された前記ボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データを生成するデータ生成部と
 を備えるデータ処理装置。
(2)
 前記フォーマットは、動画像、静止画像、および独自に定義されたファイル形式を含む
 (1)に記載のデータ処理装置。
(3)
 前記フォーマットは、所定のSNS(Social Networking Service)に投稿可能なファイル形式を含む
 (2)に記載のデータ処理装置。
(4)
 前記変換データをSNSサーバに送信するデータ送信部をさらに備える
 (3)に記載のデータ処理装置。
(5)
 前記編集受付部と前記データ生成部は、前記ボリュメトリック画像を編集するためのエディタを構成し、
 前記エディタは、前記ユーザが閲覧するコンテンツに対する操作に応じて動作する
 (1)乃至(4)のいずれかに記載のデータ処理装置。
(6)
 前記エディタは、ネイティブアプリケーションで構成され、前記コンテンツに埋め込まれた指定情報に基づいて起動する
 (5)に記載のデータ処理装置。
(7)
 前記エディタは、Webアプリケーションで構成され、前記コンテンツに埋め込まれた状態で動作する
 (5)に記載のデータ処理装置。
(8)
 前記コンテンツは、専用アプリケーションまたはWebブラウザで閲覧可能なWebサイトを含む
 (5)に記載のデータ処理装置。
(9)
 前記編集受付部は、前記ボリュメトリック画像に反映される編集内容を表す編集情報を生成する
 (1)乃至(8)のいずれかに記載のデータ処理装置。
(10)
 前記編集情報は、前記ボリュメトリック画像における1または複数の視点位置を指定する視点情報を含む
 (9)に記載のデータ処理装置。
(11)
 前記編集情報は、前記ボリュメトリック画像における再生区間および再生速度の少なくともいずれかを指定する再生情報を含む
 (9)に記載のデータ処理装置。
(12)
 前記編集情報は、前記ボリュメトリック画像における物体に付与される付与情報を含む
 (9)に記載のデータ処理装置。
(13)
 前記付与情報は、前記ボリュメトリック画像において指定された時間の、前記物体において指定された領域に付与される
 (12)に記載のデータ処理装置。
(14)
 前記付与情報は、前記ボリュメトリック画像に含まれる、前記物体において前記付与情報が付与可能な領域を示すメタ情報に基づいて付与される
 (12)に記載のデータ処理装置。
(15)
 前記物体は、動物体または静止物体である
 (12)に記載のデータ処理装置。
(16)
 前記付与情報は、テキスト、静止画像、動画像、および音声の少なくともいずれかを含む
 (12)に記載のデータ処理装置。
(17)
 前記編集情報は、前記ボリュメトリック画像に合成されるエフェクト画像を含む
 (9)に記載のデータ処理装置。
(18)
 前記ボリュメトリック画像は、前記編集情報で表される編集内容の範囲を制限する制限情報を含み、
 前記編集受付部は、前記制限情報に基づいて制限された編集内容の範囲の前記編集情報を生成する
 (9)に記載のデータ処理装置。
(19)
 データ処理装置が、
 ユーザの操作に応じてボリュメトリック画像の編集を受け付け、
 編集された前記ボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データを生成する
 データ処理方法。
(20)
 コンピュータに、
 ユーザの操作に応じてボリュメトリック画像の編集を受け付け、
 編集された前記ボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データを生成する
 処理を実行させるためのプログラム。
 10 データ処理システム, 100 コンテンツサーバ, 110 コンテンツ管理部, 120 コンテンツ配信部, 200 ユーザ端末, 210 コンテンツ受信部, 220 レンダリング部, 230 編集受付部, 240 データ生成部, 250 データ送信部, 260 蓄積制御部, 300 SNSサーバ, 310 データ受信部, 320 SNS処理部

Claims (20)

  1.  ユーザの操作に応じてボリュメトリック画像の編集を受け付ける編集受付部と、
     編集された前記ボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データを生成するデータ生成部と
     を備えるデータ処理装置。
  2.  前記フォーマットは、動画像、静止画像、および独自に定義されたファイル形式を含む
     請求項1に記載のデータ処理装置。
  3.  前記フォーマットは、所定のSNS(Social Networking Service)に投稿可能なファイル形式を含む
     請求項2に記載のデータ処理装置。
  4.  前記変換データをSNSサーバに送信するデータ送信部をさらに備える
     請求項3に記載のデータ処理装置。
  5.  前記編集受付部と前記データ生成部は、前記ボリュメトリック画像を編集するためのエディタを構成し、
     前記エディタは、前記ユーザが閲覧するコンテンツに対する操作に応じて動作する
     請求項1に記載のデータ処理装置。
  6.  前記エディタは、ネイティブアプリケーションで構成され、前記コンテンツに埋め込まれた指定情報に基づいて起動する
     請求項5に記載のデータ処理装置。
  7.  前記エディタは、Webアプリケーションで構成され、前記コンテンツに埋め込まれた状態で動作する
     請求項5に記載のデータ処理装置。
  8.  前記コンテンツは、専用アプリケーションまたはWebブラウザで閲覧可能なWebサイトを含む
     請求項5に記載のデータ処理装置。
  9.  前記編集受付部は、前記ボリュメトリック画像に反映される編集内容を表す編集情報を生成する
     請求項1に記載のデータ処理装置。
  10.  前記編集情報は、前記ボリュメトリック画像における1または複数の視点位置を指定する視点情報を含む
     請求項9に記載のデータ処理装置。
  11.  前記編集情報は、前記ボリュメトリック画像における再生区間および再生速度の少なくともいずれかを指定する再生情報を含む
     請求項9に記載のデータ処理装置。
  12.  前記編集情報は、前記ボリュメトリック画像における物体に付与される付与情報を含む
     請求項9に記載のデータ処理装置。
  13.  前記付与情報は、前記ボリュメトリック画像において指定された時間の、前記物体において指定された領域に付与される
     請求項12に記載のデータ処理装置。
  14.  前記付与情報は、前記ボリュメトリック画像に含まれる、前記物体において前記付与情報が付与可能な領域を示すメタ情報に基づいて付与される
     請求項12に記載のデータ処理装置。
  15.  前記物体は、動物体または静止物体である
     請求項12に記載のデータ処理装置。
  16.  前記付与情報は、テキスト、静止画像、動画像、および音声の少なくともいずれかを含む
     請求項12に記載のデータ処理装置。
  17.  前記編集情報は、前記ボリュメトリック画像に合成されるエフェクト画像を含む
     請求項9に記載のデータ処理装置。
  18.  前記ボリュメトリック画像は、前記編集情報で表される編集内容の範囲を制限する制限情報を含み、
     前記編集受付部は、前記制限情報に基づいて制限された編集内容の範囲の前記編集情報を生成する
     請求項9に記載のデータ処理装置。
  19.  データ処理装置が、
     ユーザの操作に応じてボリュメトリック画像の編集を受け付け、
     編集された前記ボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データを生成する
     データ処理方法。
  20.  コンピュータに、
     ユーザの操作に応じてボリュメトリック画像の編集を受け付け、
     編集された前記ボリュメトリック画像が、他の装置において出力可能なフォーマットに変換された変換データを生成する
     処理を実行させるためのプログラム。
PCT/JP2022/040595 2021-11-12 2022-10-31 データ処理装置、データ処理方法、およびプログラム WO2023085139A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-184795 2021-11-12
JP2021184795 2021-11-12

Publications (1)

Publication Number Publication Date
WO2023085139A1 true WO2023085139A1 (ja) 2023-05-19

Family

ID=86335835

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040595 WO2023085139A1 (ja) 2021-11-12 2022-10-31 データ処理装置、データ処理方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2023085139A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169237A (ja) * 1999-09-27 2001-06-22 Matsushita Electric Ind Co Ltd 動画編集再生装置
JP2015187797A (ja) * 2014-03-27 2015-10-29 シャープ株式会社 画像データ生成装置および画像データ再生装置
KR20170019819A (ko) * 2015-08-12 2017-02-22 삼성전자주식회사 동영상 재생을 위한 전자 장치 및 방법
JP2018036956A (ja) * 2016-09-01 2018-03-08 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
WO2020129659A1 (ja) * 2018-12-19 2020-06-25 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169237A (ja) * 1999-09-27 2001-06-22 Matsushita Electric Ind Co Ltd 動画編集再生装置
JP2015187797A (ja) * 2014-03-27 2015-10-29 シャープ株式会社 画像データ生成装置および画像データ再生装置
KR20170019819A (ko) * 2015-08-12 2017-02-22 삼성전자주식회사 동영상 재생을 위한 전자 장치 및 방법
JP2018036956A (ja) * 2016-09-01 2018-03-08 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
WO2020129659A1 (ja) * 2018-12-19 2020-06-25 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム

Similar Documents

Publication Publication Date Title
US8819559B2 (en) Systems and methods for sharing multimedia editing projects
US8701008B2 (en) Systems and methods for sharing multimedia editing projects
JP6913634B2 (ja) インタラクティブ・コンピュータ・システムおよびインタラクティブ方法
KR102204485B1 (ko) 오디오-비주얼 내비게이션 및 통신
US20190104325A1 (en) Event streaming with added content and context
JP7293338B2 (ja) ビデオ処理方法、装置、デバイスおよびコンピュータプログラム
US20140059418A1 (en) Multimedia annotation editing system and related method and computer program product
CN112333536A (zh) 音视频编辑方法、设备以及计算机可读存储介质
JP2014082582A (ja) 視聴装置、コンテンツ提供装置、視聴プログラム、及びコンテンツ提供プログラム
JP6765558B1 (ja) コンテンツ配信装置、コンテンツ配信方法、コンテンツ配信システム、および、コンテンツ配信プログラム
JP6195687B1 (ja) アプリケーションプログラム、端末装置の制御方法、端末装置、およびサーバ
EP4202615A1 (en) Video distribution system and method, computing device, and user equipment
WO2023085139A1 (ja) データ処理装置、データ処理方法、およびプログラム
WO2017026170A1 (ja) クライアント機器、サーバ機器、表示処理方法、及び、データ配信方法
JP7365076B2 (ja) 映像配信装置、映像配信システム、映像配信方法、及びプログラム
JP4129162B2 (ja) コンテンツ作成実演システム及びコンテンツ作成実演方法
US20230199138A1 (en) Information processing device, information processing program, and recording medium
JP2018198746A (ja) 端末およびサーバ
JP2005228297A (ja) 実物キャラクター型動画像情報物の制作方法,実物キャラクター型動画像情報物の再生方法,記録媒体
WO2022268045A1 (zh) 一种基于多媒体作品的交互方法、装置、设备及存储介质
JP7313641B1 (ja) 端末及びコンピュータプログラム
TW201342887A (zh) 多媒體內容傳播伺服器、多媒體內容傳播方法及相關的電腦程式產品
US20240236401A9 (en) Terminal and non-transitory computer-readable medium
CN103534732A (zh) 再现装置
JP2018125702A (ja) 映像制御システム及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22892638

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023559564

Country of ref document: JP

Kind code of ref document: A