WO2014111968A1 - 映像生成装置、映像生成プログラム、及び映像生成方法 - Google Patents

映像生成装置、映像生成プログラム、及び映像生成方法 Download PDF

Info

Publication number
WO2014111968A1
WO2014111968A1 PCT/JP2013/000138 JP2013000138W WO2014111968A1 WO 2014111968 A1 WO2014111968 A1 WO 2014111968A1 JP 2013000138 W JP2013000138 W JP 2013000138W WO 2014111968 A1 WO2014111968 A1 WO 2014111968A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
information
sight
stroke
video generation
Prior art date
Application number
PCT/JP2013/000138
Other languages
English (en)
French (fr)
Inventor
光雄 林
Original Assignee
Hayashi Mitsuo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hayashi Mitsuo filed Critical Hayashi Mitsuo
Priority to JP2014557173A priority Critical patent/JP5980960B2/ja
Priority to US14/761,537 priority patent/US9824721B2/en
Priority to PCT/JP2013/000138 priority patent/WO2014111968A1/ja
Priority to KR1020157018950A priority patent/KR102045413B1/ko
Publication of WO2014111968A1 publication Critical patent/WO2014111968A1/ja
Priority to US15/816,184 priority patent/US10249340B2/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Definitions

  • the present invention relates to a video generation apparatus, a video generation program, and a video generation method for generating a making video that reproduces a state of drawing using an omnidirectional image editing apparatus.
  • omnidirectional image editing apparatus when using the omnidirectional image editing apparatus (hereinafter simply referred to as “omnidirectional image editing apparatus”) described in the earlier application (see Patent Document 1) by the present applicant, the creator performs the steps of changing the line of sight and drawing. Repeat to complete the omnidirectional image. The line of sight is not moved during the stroke, and the stroke is continuously performed to some extent with one line of sight. Note that the “omnidirectional image” refers to an image that looks like a background covering the omnidirectional of the worker.
  • a method for automatically generating a making picture by a conventional painting there are a method for recording a work screen, a method for recording stroke information, and the like.
  • the method of recording the work screen reproduces the operation of the graphical user interface (GUI) used for the work and the enlarged display and rotation display of the work image that accompanies the work.
  • Video that clearly presents the work procedure can be generated.
  • a method of increasing the reproduction speed is often handled. For example, the reproduction time can be reduced to 10 minutes by setting the state of work for 60 minutes to 6 times speed.
  • the method of recording stroke information can generate a video showing a stroke while always displaying the entire image of the work, and it is also possible to display no unnecessary information other than the stroke related to the completed work image. It is.
  • a method of omitting the time other than the stroke is often handled. For example, the reproduction time can be shortened by not reproducing the time for carrying the pen from the end point of the line to the next start point, the time when no operation is performed, and the like.
  • an omnidirectional image as a two-dimensional image that can be displayed on a general flat display (for example, a liquid crystal display), there is a “look-around image”.
  • a look-around image is a natural image that is generally familiar, unlike a fish-eye lens image or a panoramic image, and is always represented as being in a certain direction. That is, it is necessary to move the line of sight in order to represent all directions in the omnidirectional image.
  • Such a look image can effectively maintain an immersive feeling if the line-of-sight movement is smooth. This is similar to the point that camera work (for example, pan / tilt / zoom) is desired to be smooth in a camera used in actual shooting and a virtual camera used in computer graphics.
  • camera work for example, pan / tilt / zoom
  • the conventional method does not move the line of sight during the stroke. For this reason, for example, when the number of strokes with respect to one line of sight is enormous, the time during which no look is performed is long. On the other hand, when the number of strokes for one line of sight is small or does not exist, the look is excessively performed and the viewer is dizzy.
  • the gaze movement in drawing work is not intended to be smooth, but is intended to be performed for a stroke with a new gaze, so that it is distorted as a result of reproducing this as it is Most cases.
  • the present invention has been made in view of the technical problems as described above, and in the reproduction of omnidirectional image drawing, an automatic video that presents the state of handwriting in an easy-to-understand manner while effectively maintaining the immersive feeling of looking around.
  • the purpose is to realize a typical generation.
  • the video generation device records a line-of-sight information and a stroke information group by executing a storage unit storing a video generation program and the video generation program stored in the storage unit. From the reproduction sequence, the stroke information group is associated with the effective line-of-sight information, the number of frames between the line-of-sight information is constant, and when moving the line of sight from the first line of sight to the third line of sight, A central control unit for controlling to reproduce a stroke information group corresponding to the second line of sight is provided in a range from the first and second central frames to the second and third central frames. It is characterized by that.
  • the video generation device extracts the effective line-of-sight information possessed by the reproduction sequence by executing the video generation program by storing the video generation program and the storage unit that stores the video generation program.
  • a frame relating to line-of-sight information is selected, stroke information relating to the selected frame is extracted, and if the stroke information includes a drawing attribute, an omnidirectional image is updated based on the drawing attribute and the line-of-sight information.
  • new line-of-sight information is generated by interpolation based on the extracted line-of-sight information, neighboring line-of-sight information, and the position of the extracted frame.
  • the omnidirectional image is drawn on the screen image based on the obtained line-of-sight information, and the screen image is the image of the selected frame. And write it, and a central control unit for controlling so as to comprising the.
  • the video generation program according to the third aspect of the present invention is such that the computer executes the video generation program stored in the storage unit, thereby enabling effective line-of-sight information from a reproduction sequence in which the line-of-sight information and the stroke information group are recorded.
  • the stroke information group is associated with each other, the number of frames between the line-of-sight information is constant, and the line of sight moves from the first line of sight to the third line of sight, the first and second center In a range from the frame to the second and third central frames, it functions as a central control unit that controls to reproduce the stroke information group corresponding to the second line of sight.
  • a video generation program including: a procedure for executing a video generation program stored in a storage unit; a procedure for extracting effective line-of-sight information included in a reproduction sequence; A procedure for selecting a frame relating to line-of-sight information; a procedure for extracting stroke information relating to the selected frame; and, if the stroke information includes a drawing attribute, an omni-direction based on the drawing attribute and the line-of-sight information
  • new line-of-sight information is generated by interpolation based on the extracted line-of-sight information, neighboring line-of-sight information, and the position of the extracted frame.
  • an omnidirectional image is drawn on the screen image based on the line-of-sight information generated by the interpolation, and the screen is displayed.
  • the central control unit executes the video generation program stored in the storage unit, so that it is effective from the reproduction sequence in which the line-of-sight information and the stroke information group are recorded.
  • the stroke information group is associated with the line-of-sight information, the number of frames between the line-of-sight information is constant, and the line of sight moves from the first line of sight to the third line of sight, the first and second A stroke information group corresponding to the second line of sight is reproduced in a range from a central frame to the second and third central frames.
  • the central control unit executes a procedure for executing the video generation program stored in the storage unit, a procedure for extracting effective line-of-sight information included in the reproduction sequence, and the extraction Selecting a frame related to the selected line-of-sight information, extracting a stroke information related to the selected frame, and, if the stroke information includes a drawing attribute, based on the drawing attribute and the line-of-sight information
  • the procedure for updating the omnidirectional image and the extraction of all the stroke information related to the selected frame are completed, new line-of-sight information is obtained based on the extracted line-of-sight information and the adjacent line-of-sight information and the position of the extracted frame.
  • Interpolation is generated, and an omnidirectional image is drawn on the screen image based on the line-of-sight information generated by the interpolation.
  • a video generation apparatus and a video generation program for realizing automatic generation of a video that presents the state of stroke in an easy-to-understand manner while effectively maintaining an immersive feeling by looking around And a video generation method.
  • FIG. 1 It is a figure which shows the structure of the video production
  • (A) And (b) is a figure which shows the kind and structure of the information currently recorded on the reproduction sequence. It is a flowchart which shows the flow of the whole process of the video generation program which concerns on one Embodiment of this invention. It is a figure which shows an example of a reproduction sequence. It is a figure which shows the concept which divides a reproduction sequence into a group. It is a figure which shows the concept of the correlation of a reproduction sequence. It is a figure which shows the example which has arrange
  • (A) And (b) is a figure which shows the example of a video production
  • FIG. 1 shows and describes a configuration of a video generation apparatus according to an embodiment of the present invention.
  • the video generation device 1 includes a personal computer 10, a display device 20, a video parameter input device 30, and the like.
  • the personal computer 10 includes a central control unit 11 including a multitask processor, a main memory 12 including a RAM (Random Access Memory) as a temporary storage device, an image control unit 13 such as a graphic card, and an input / output control unit 14.
  • the image control unit 13 also includes a video memory 13a. Similar to the main memory 12 of the personal computer 10 main body, the video memory 13a is a place for temporarily storing data, and the memory attached to the graphic card is also referred to as VRAM (Video RAM). When a 3D graphic image is displayed on the screen, the amount of data required at that time increases. The data that has been processed by the image controller 13 is stored in the video memory 13a and used as needed. As the capacity of the video memory 13a is increased, even a fine 3D graphic image can be displayed smoothly and without a defect. In recent years, the speed of VRAM has been increased, and a memory standard dedicated to high-speed processing called GDDR (Graphics DDR) has appeared, and high-speed transfer of enormous data in three-dimensional graphics drawing has been realized.
  • GDDR Graphics DDR
  • the display device 20 is a device that can display an image, represented by a liquid crystal display or the like.
  • the video parameter input device 30 is a device that allows the user to arbitrarily specify adjustments related to the look video output data 41 (for example, adjustment of line-of-sight information, playback speed, image quality, etc.), that is, representative of a mouse, a touch panel, and a pen tablet.
  • Program data 50, orientation pixel association data 42, and sequence input data 40 are input to the personal computer 10 via the media read / write interface 16, and look-out video output data 41 is output from the personal computer 10 to the outside via the media read / write interface 16. Is done.
  • the program data 50 is software capable of operating the present invention. This corresponds to data of a video generation program, which will be described later.
  • the azimuth image correlation data 42 is a table or function that correlates the azimuth and the pixel position. When a polygon model is used, the polygon model data corresponds to this and becomes a three-dimensional object.
  • the azimuth image association data 42 may accompany the program data 50, or may read externally defined data.
  • the sequence input data 40 is data handled by software, is data in which drawing operations in the omnidirectional image editing apparatus are sequentially recorded, and is used as a reproduction sequence described later.
  • the input data is temporarily stored in the main memory 12.
  • the look video output data 41 is an image group handled by software, and is output as a continuous image, that is, video data.
  • the orientation image association data 42 and the program data 50 may be read from an external storage medium (not shown), received from an external computer (not shown) via a communication network by a communication control unit (not shown), and the input / output control unit 14 Via the built-in nonvolatile storage medium 15.
  • the look video output data 41 may be written to an external storage medium (not shown) or transmitted to an external computer (not shown) via a communication network.
  • FIG. 2 shows a memory map of the main memory 12 used for video generation.
  • Each image has color information with opacity (a: alpha, r: red, g: green, b: blue) as a two-dimensional array.
  • “Alpha” indicates opacity information.
  • PNG with alpha 32-bit PNG; 32-bit Portable Network-Graphics
  • An alpha value of zero means completely transparent, 255 means completely opaque.
  • the omnidirectional image related information is information for representing a background (that is, an omnidirectional image) covering the omnidirectional of the creator in the omnidirectional image editing apparatus and the viewer in the present invention.
  • This figure is an example of using a polygon model.
  • Polygon vertices have three-dimensional spatial coordinates (x: horizontal, y: vertical, z: depth) and two-dimensional texture coordinates (u: horizontal, v: vertical). Since the polygon surface represents a triangle, it has three references to polygon vertices and references to texture images for the number of layers. Since the polygon model represents a three-dimensional shape, it has polygon vertices and polygon surfaces as arrays.
  • the reference to the texture image may be one relative reference within the layer.
  • the screen image is an image for one frame that is projected as an omnidirectional image on a two-dimensional coordinate plane by coordinate transformation and presented to the creator by the display device 20 or output as the look-up video output data 41.
  • the process of updating the omnidirectional image is mainly projected on the screen image and presented to the viewer.
  • Drawing is an operation of drawing figures, lines, etc. on a two-dimensional (planar) image mainly using a pointing device in an omnidirectional image editing apparatus.
  • a drawing image is a two-dimensional (planar) image that is a target on which the creator actually draws.
  • the drawing image is in a storage area different from the screen image, has the same coordinate system as the screen image, and is completely transparent before the drawing starts.
  • the opacity information and the color information are updated at the location where the drawing is performed. This is equivalent to the creator drawing on a transparent layer overlying the screen image.
  • Examples of the drawing method include freehand, straight line, curved line, rectangle, circle, image pasting, and the like.
  • the drawing attribute may be a width or color when the method is a line, a filled pattern when the method is a figure, and the like. In the present invention, the drawing is automatically performed by a reproduction sequence described later.
  • the drawing image is also a temporary image until the contents of the drawing are reflected in the omnidirectional image, and may be used as necessary. For example, if it is not necessary to return to the line-of-sight change mode (correct the line of sight) again before drawing ends in drawing, and the drawing rule is to immediately reflect the drawing contents in the omnidirectional image, do not use the drawing image. Is also possible.
  • the reproduction sequence is data in which drawing operations in the omnidirectional image editing apparatus are sequentially recorded as information, and is used for updating the omnidirectional image in the present invention.
  • FIG. 3 shows details and types of information recorded in the reproduction sequence.
  • There are at least two types of information as elements of the reproduction sequence, mainly gaze information and stroke information.
  • Gaze information mainly has a gaze angle (yaw angle, pitch angle, roll angle) and viewing angle.
  • the line-of-sight information may include a shift amount (horizontal shift, vertical shift).
  • Shift is a method of translating images.For example, in the expression of perspective using an omnidirectional image editing device, the viewing angle of the ground from a distance to the horizon, the upper part of a nearby high building, etc. It can be expressed in detail without enlarging.
  • the stroke information has a drawing attribute and / or a drawing end flag.
  • the drawing attributes possessed by the stroke information are, for example, a case where the drawing method is a straight line, and start and end coordinates (x: horizontal pixel, y: vertical pixel), color information (a: alpha, r: red, g: Green, b: blue), line width.
  • start and end coordinates x: horizontal pixel, y: vertical pixel
  • color information a: alpha, r: red, g: Green, b: blue
  • line width line width
  • a curve or a freehand it can be approximated by using a plurality of short straight lines.
  • the drawing end flag included in the stroke information is a flag for determining whether to perform a drawing end process (that is, a process of drawing a drawing image drawn so far in an omnidirectional image and clearing the drawing image). .
  • the drawing is performed in a state of being directed in some direction in principle. That is, the stroke information included in the reproduction sequence is related to any line-of-sight information.
  • the drawing image is used as an example, and after the stroke information is extracted, the drawing image is updated and the omnidirectional image is updated. Similarly, the process of drawing on the screen image is similarly divided.
  • the figure does not include the concept of layers, but when using layers, pay attention to the order in which omnidirectional images and drawing images are drawn on screen images.
  • step S1 it is first determined whether or not extraction of all valid line-of-sight information included in the reproduction sequence has been completed.
  • step S2 since extraction has not been completed yet, the process branches to No, and the next effective line-of-sight information is extracted (step S2).
  • step S3 it is determined whether or not all the frames related to the extracted line-of-sight information have been selected.
  • step S3 since selection has not been completed yet, the process branches to No and the next frame is selected (step S4).
  • step S5 it is determined whether or not extraction of all stroke information related to the selected frame has been completed. If the extraction has not been completed yet, the process branches to No, and the next stroke information is extracted (step S6). However, if there is no stroke information related to the selected frame, extraction is completed as it is, step S5 is branched to Yes, and the process proceeds to step S12.
  • step S7 it is determined whether or not the stroke information includes a drawing attribute. If it is included, the process branches to Yes, the drawing image is updated based on the drawing attribute (step S8), and the process proceeds to step S9. On the other hand, if not included, the process proceeds to step S9 as it is.
  • step S9 it is determined whether or not the stroke information includes a drawing end flag. If yes, the process branches to Yes, the drawing image is drawn on the omnidirectional image based on the extracted line-of-sight information (step S10), the drawing image is cleared (step S11), and the process goes to step S5. Return.
  • step S5 it is determined again whether or not all the stroke information related to the selected frame has been extracted. If the extraction has been completed, the process branches to Yes, and new line-of-sight information is generated by interpolation based on the extracted line-of-sight information, neighboring line-of-sight information, and the extracted frame position (step S12).
  • An omnidirectional image is drawn on the screen image based on the line-of-sight information generated by interpolation (step S13), and a drawing image is drawn on the screen image based on the line-of-sight information generated by interpolation and the extracted line-of-sight information (step S14).
  • the screen image is written out as an image of the selected frame (step S15), and the process returns to step S3.
  • “exporting as an image of a selected frame” is a process of generating an image to be presented to the viewer.
  • step S3 it is determined again whether or not selection of all the frames related to the extracted line-of-sight information has been completed. If it is determined that the selection has been completed, the process branches to Yes and returns to step S1. In step S1, it is determined again whether or not all effective line-of-sight information included in the reproduction sequence has been extracted (step S1). If extraction has not been completed, the processes of steps S1 to S15 as described above are repeated. . Then, when the extraction is completed, this process is terminated.
  • FIG. 5 shows an example of the reproduction sequence.
  • This figure is an example of a reproduction sequence with a total of 42 elements with numbers 0-41.
  • the line-of-sight information is represented by “ ⁇ ”
  • the stroke information having the drawing attribute is represented by “ ⁇ ”
  • the stroke information having the drawing end flag is represented by “ ⁇ ”.
  • Fig. 6 shows the concept of dividing the above-mentioned reproduction sequence into groups.
  • one group is represented by one line. Stroke information with a drawing end flag is the end of the group. If there is a group for which no line-of-sight information exists, the group may be combined with the immediately preceding group.
  • Fig. 7 shows the concept of replay sequence association.
  • the last line-of-sight information in the group is regarded as valid line-of-sight information. Gaze information that is not considered valid is discarded. As a result, the line-of-sight information of each group can be used correctly, and at the same time, the line-of-sight information having no associated stroke information can be eliminated.
  • the line-of-sight information group is represented as V
  • the line-of-sight information with the subscript j is represented as V [j]. That is, the subscript of the line-of-sight information group V is also a group number.
  • the stroke information group is represented as S
  • the stroke information with the suffix i is represented as S [i].
  • a stroke head position list related to the line-of-sight information V [j] is expressed as p
  • a head position of stroke information related to the line-of-sight information V [j] of the subscript j is expressed as p [j]. That is, the head stroke information related to the line-of-sight information V [j] of the subscript j is represented by S [p [j]].
  • the stroke information group related to the line-of-sight information V [j] includes stroke information whose subscript is greater than or equal to p [j] and less than p [j + 1] (that is, S [p [j] +0], S [p [j ] +1], S [p [j] +2],..., S [p [j + 1] -1]), the total number of stroke information related to the line-of-sight information V [j] of the subscript j is p [ j + 1] ⁇ p [j].
  • the above is an example of associating a reproduction sequence.
  • other methods may be used for association.
  • a method suitable for the drawing rule in the omnidirectional image editing apparatus that is the basis of the reproduction sequence is desired.
  • FIG. 8 shows an example in which the reproduction sequence and the reproduction frame are arranged in time series.
  • the example in the figure represents the relationship between the above-described line-of-sight information and stroke information, and the playback frames for video generation in time series.
  • the line-of-sight information used for drawing is a total of four V [0] to V [3] based on the above example.
  • the time between each line-of-sight information is made equal.
  • a group of information related to one line-of-sight information is defined as a group. For example, the group number associated with V [0] is 0.
  • the boundary between the groups is assumed to be near the center of two adjacent line-of-sight information.
  • the number of playback frames is 10 frames per line-of-sight information (that is, per group), for a total of 40 frames. That is, The frame number related to V [0] is 0 to 9 The frame numbers associated with V [1] are 10-19. The frame numbers related to V [2] are 20 to 29. The frame number associated with V [3] is 30 to 39. And The time between each frame is set at an equal interval, and the time of the line-of-sight information is set near the center of the frame group related thereto.
  • the time of each frame (that is, frame numbers 10 to 19) is adjusted so that the time of V [1] is the center time of frame number 10 and frame number 20 (that is, frame number 15).
  • the time of frame number 10 is the central time of V [0] and V [1].
  • the fixed number of frames may actually allow an error of several frames (about 1 to 2 frames) (if you want to generate a total of 50 frames of video in 4 groups, the frames of each group The number will be 12 or 13.)
  • the stroke information group related to V [0] is a total of five stroke information groups S [0] to S [4].
  • the value of p [4] is obtained by adding 1 to the last subscript (31) of the stroke information, that is, used for obtaining the total number of stroke information in the terminal data V [3].
  • the time between each stroke information is set at equal intervals, and the time of the line-of-sight information is set near the center of the stroke information group related thereto.
  • the time of each stroke information (S [0] to S [4]) is adjusted so that the time of V [0] is the center time of S [0] and S [5].
  • stroke information (group) in the range after the time of the immediately preceding frame and below the time of the current frame, that is, S [8 ] To S [9] are used.
  • the line-of-sight information when writing a stroke is V [1] because it is the line-of-sight information of the group with which frame number 13 is related (ie, group number 1).
  • CatmullRom (V [ ⁇ 1], V [0], V [1], V [2], (10 ⁇ 5) ⁇ 10) is calculated for each of the yaw angle, pitch angle, roll angle, and viewing angle. And interpolate. However, since V [ ⁇ 1] does not exist, V [0] which is the leading end of the data is used instead, and CatmullRom (V [0], V [0], V [1], V [2], (10 Calculate -5) ⁇ 10). By using the curve interpolation method, the line-of-sight movement becomes curvilinear and smooth, and a sudden change of direction of the line of sight can be prevented.
  • the frame image is generated using the omnidirectional image, the drawing image, and the line of sight prepared as described above.
  • FIG. 9 shows a video generation example (drawing, video generation).
  • FIG. 9 is an example of image generation when a plurality of rectangles are drawn in various directions.
  • the creator draws one rectangle on the front, draws three rectangles facing downward, draws two rectangles facing the front right, and draws one rectangle on the back. Shall.
  • the drawing method is all straight, and four pieces of stroke information having a drawing attribute are used for each rectangle. Just before the movement of the line of sight, one piece of stroke information having a drawing end flag is used.
  • the generated image moves smoothly while passing through the line of sight at the time of drawing (except for the line of sight that was discarded, and so on).
  • the stroke of the group including the line of sight information is completed about half.
  • the group is switched when the frame passes through the vicinity of the center of the line of sight at the time of drawing and the next line of sight (for example, frame number 10), and the stroke of the next group starts.
  • the present invention includes the following.
  • the line-of-sight information and the stroke are obtained by executing the main memory 12 as a storage unit that stores a video generation program (program data 50) and the video generation program stored in the storage unit.
  • the stroke information group is associated with the effective line-of-sight information, the number of frames between the line-of-sight information is constant, and the line of sight passes from the first line of sight to the third line of sight.
  • a video generation device characterized by comprising the control unit 11 is provided.
  • the main memory 12 as a storage unit for storing the video generation program (program data 50), and the effective line-of-sight information possessed by the reproduction sequence can be obtained by executing the video generation program. Extracting, selecting a frame relating to the extracted line-of-sight information, extracting stroke information relating to the selected frame, and if the stroke information includes a drawing attribute, the drawing attribute and the line-of-sight information are When the omnidirectional image is updated and all the stroke information related to the selected frame is extracted, new line-of-sight information is interpolated based on the extracted line-of-sight information, neighboring line-of-sight information, and the position of the extracted frame.
  • the line-of-sight information and the stroke information group are recorded by executing the video generation program (program data 50) stored in the main memory 12 as the storage unit.
  • the stroke information group is associated with the effective line-of-sight information, the number of frames between the line-of-sight information is constant, and when moving the line of sight from the first line of sight to the third line of sight, A range from the first and second central frames to the second and third central frames is made to function as a central controller 11 that controls to reproduce the stroke information group corresponding to the second line of sight.
  • a video generation program characterized by the above is provided.
  • the computer 10 extracts the procedure for executing the video generation program (program data 50) stored in the main memory 12 as the storage unit and the effective line-of-sight information possessed by the reproduction sequence.
  • the extracted line-of-sight information, the adjacent line-of-sight information, and the position of the extracted frame are used.
  • New line-of-sight information is generated by interpolation, and an omnidirectional image is generated based on the line-of-sight information generated by the interpolation.
  • the image generation program for causing to function as a central control unit 11 for controlling to execute the procedure to write the screen image as the image of the selected frame, it is provided.
  • the central control unit 11 executes the video generation program (program data 50) stored in the main memory 12 as the storage unit, whereby the line-of-sight information and the stroke information group are recorded.
  • the stroke information group is associated with the effective line-of-sight information from the reproduced sequence, the number of frames between the line-of-sight information is fixed, and the line of sight moves from the first line of sight to the third line of sight via the second line of sight
  • a video generation method comprising: reproducing a stroke information group corresponding to the second line of sight in a range from the first and second central frames to the second and third central frames. Is provided.
  • the central control unit 11 executes a video generation program (program data 50) stored in the main memory 12 serving as a storage unit, and effective line-of-sight information included in the reproduction sequence.
  • a procedure for selecting a frame related to the extracted line-of-sight information, a procedure for extracting stroke information related to the selected frame, and, if the stroke information includes a drawing attribute, the drawing The procedure for updating the omnidirectional image based on the attribute and the line-of-sight information, and when the extraction of all the stroke information related to the selected frame is completed, the extracted line-of-sight information, the adjacent line-of-sight information, and the position of the extracted frame New gaze information is generated by interpolation based on the omnidirectional image based on the generated gaze information
  • the image generation method characterized by performing the procedure to write the screen image as the image of the selected frame, is provided.
  • the present invention generates an image in which the state in which the omnidirectional image is updated (that is, the state of the stroke) can be observed with a high probability, so that the state of the stroke can be presented in an easily understandable manner.
  • the video is automatically generated using the data storing the operations performed by the creator, it is possible to reduce the burden of work related to the video generation.
  • the stroke playback speed is not always constant. However, it is considered that the change in the stroke reproduction speed does not affect the immersive feeling as much as the change in the movement speed of the line of sight.
  • the present invention allows a smooth line of sight movement by allowing a change in the stroke reproduction speed, and can be expected to effectively maintain the immersive feeling by looking around.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)

Abstract

 全方位画像の作画の再現において、見回しによる没入感を効果的に保ちつつ、運筆の様子をわかりやすく提示する映像の自動的な生成を実現することを目的とする。 視線情報およびストローク情報群が記録された再現シーケンスから、有効な視線情報に関してストローク情報群を対応付ける。視線情報間のフレーム数を一定とする。視線情報AからBを経てCへと視線を移動する際、「AとBとの中央のフレーム」から「BとCとの中央のフレーム」までの範囲には、Bに対応するストローク情報群を再生する。

Description

映像生成装置、映像生成プログラム、及び映像生成方法
 本発明は、全方位画像編集装置を用いた作画の様子を再現するメイキング映像を生成する映像生成装置、映像生成プログラム、及び映像生成方法に関する。
 例えば、本出願人による先願(特許文献1参照)に記載の全方位画像編集装置(以下、単に「全方位画像編集装置」と記載)を用いる際、作画者は視線変更とドローイングの手順を繰り返すことで、全方位画像を完成させる。ストロークの最中に視線移動が行われることはなく、1つの視線である程度連続してストロークが行われる。なお、「全方位画像」とは、作業者の全方位を覆う背景に見立てた画像をいう。
 ここで、従来の絵画によるメイキング映像を自動的に生成する方法として、作業画面を録画する方法や、ストローク情報を記録する方法等が挙げられる。
 作業画面を録画する方法は、作業に用いるグラフィカルユーザーインターフェース(GUI;Graphical User Interface)の操作や、作業に伴う作品画像の拡大表示や回転表示等もそのまま再現されるので、運筆だけでなく全体の作業手順を明確に提示する映像が生成可能である。なお、実際の作業時間に対してメイキング映像の時間を短くするために、再生速度を上げる手法がしばしば扱われる。例えば、60分間の作業の様子を6倍速とすることで再生時間を10分間に収めることができる。
 一方、ストローク情報を記録する方法は、作品の全体像を常に表示させながら運筆を提示する映像が生成可能であり、また、完成させる作品画像に関する運筆以外の不要な情報は一切表示させないことも可能である。なお、実際の作業時間に対してメイキング映像の時間を短くするために、運筆以外の時間を省略する手法がしばしば扱われる。例えば、線の終点から次の始点にペンを運ぶ時間、何も操作しない時間、等を再現させないことで再生時間を短縮できる。
 ところで、全方位画像を一般的な平面のディスプレイ(たとえば、液晶ディスプレイ)で表示可能な2次元の映像として生成する有効な方法の一つとして「見回し映像」が挙げられる。
 見回し映像は、魚眼レンズの画像やパノラマ画像と異なり、一般に馴染みのある自然な映像であり、常に何らかの方向を向いた状態として表される。すなわち、全方位画像においてすべての方向を表すためには、視線を移動することが必要となる。
 このような見回し映像は、視線移動が滑らかであれば没入感を効果的に保つことができる。これは、実写撮影で用いるカメラ、及びコンピュータグラフィックスで用いる仮想カメラ等においてカメラワーク(たとえば、パン・チルト・ズーム)が滑らかであることが望まれる点と同様である。
国際公開第WO/2012/147303号公報
 しかしながら、従来手法ではストロークの最中に視線移動が行われない。このため、たとえば、1つの視線に対するストローク数が膨大である場合、見回しが行われない時間が長く及んでしまう。反対に、1つの視線に対するストローク数が僅かである場合や存在しない場合は、見回しが過剰に行われ、鑑賞者に目まぐるしさを与えてしまう。
 さらに、作画の作業における視線移動は、滑らかに行うことが本来の目的ではなく、新たな視線でのストロークのために行うことが目的なので、これをそのまま再現した結果として見回しがいびつになってしまう場合がほとんどである。
 本発明は上述したような技術的な課題に鑑みてなされたもので、全方位画像の作画の再現において、見回しによる没入感を効果的に保ちつつ、運筆の様子をわかりやすく提示する映像の自動的な生成を実現することを目的とする。
 本発明の第1の態様に係る映像生成装置は、映像生成プログラムを記憶する記憶部と、前記記憶部に記憶された映像生成プログラムを実行することで、視線情報およびストローク情報群が記録された再現シーケンスから、有効な視線情報に関してストローク情報群を対応付け、視線情報間のフレーム数を一定とし、第1の視線から第2の視線を経て第3の視線へと視線を移動するときには、前記第1及び第2の中央のフレームから前記第2及び第3の中央のフレームまでの範囲には、前記第2の視線に対応するストローク情報群を再生するよう制御する中央制御部と、を備えたことを特徴とする。
 本発明の第2の態様に係る映像生成装置は、映像生成プログラムを記憶する記憶部と、前記映像生成プログラムを実行することで、再現シーケンスが持つ有効な視線情報を抽出し、前記抽出された視線情報に関するフレームを選択し、前記選択されたフレームに関するストローク情報を抽出し、前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性および前記視線情報を基に全方位画像を更新し、前記選択されたフレームに関する全てのストローク情報を抽出完了すると、前記抽出された視線情報および近傍の視線情報ならびに抽出されたフレームの位置を基に新たな視線情報を補間生成し、この補間生成された視線情報を基に全方位画像をスクリーン画像に描画し、該スクリーン画像を選択フレームの画像として書き出す、ように制御する中央制御部と、を備えたことを特徴とする。
 本発明の第3の態様に係る映像生成プログラムは、コンピュータを、記憶部に記憶された映像生成プログラムを実行することで、視線情報およびストローク情報群が記録された再現シーケンスから、有効な視線情報に関してストローク情報群を対応付け、視線情報間のフレーム数を一定とし、第1の視線から第2の視線を経て第3の視線へと視線を移動するときには、前記第1及び第2の中央のフレームから前記第2及び第3の中央のフレームまでの範囲には、前記第2の視線に対応するストローク情報群を再生するよう制御する中央制御部として機能させることを特徴とする。
 本発明の第4の態様に係る映像生成プログラムは、コンピュータを、記憶部に記憶された映像生成プログラムを実行する手順と、再現シーケンスが持つ有効な視線情報を抽出する手順と、前記抽出された視線情報に関するフレームを選択する手順と、前記選択されたフレームに関するストローク情報を抽出する手順と、前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性および前記視線情報を基に全方位画像を更新する手順と、前記選択されたフレームに関する全てのストローク情報を抽出完了すると、前記抽出された視線情報および近傍の視線情報ならびに抽出されたフレームの位置を基に新たな視線情報を補間生成し、この補間生成された視線情報を基に全方位画像をスクリーン画像に描画し、該スクリーン画像を選択フレームの画像として書き出す手順と、を実行するように制御する中央制御部として機能させることを特徴とする。
 本発明の第5の態様に係る映像生成方法は、中央制御部が、記憶部に記憶された映像生成プログラムを実行することで、視線情報およびストローク情報群が記録された再現シーケンスから、有効な視線情報に関してストローク情報群を対応付け、視線情報間のフレーム数を一定とし、第1の視線から第2の視線を経て第3の視線へと視線を移動するときには、前記第1及び第2の中央のフレームから前記第2及び第3の中央のフレームまでの範囲には、前記第2の視線に対応するストローク情報群を再生することを特徴とする。
 本発明の第6の態様に係る映像生成方法は、中央制御部が、記憶部に記憶された映像生成プログラムを実行する手順と、再現シーケンスが持つ有効な視線情報を抽出する手順と、前記抽出された視線情報に関するフレームを選択する手順と、前記選択されたフレームに関するストローク情報を抽出する手順と、前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性および前記視線情報を基に全方位画像を更新する手順と、前記選択されたフレームに関する全てのストローク情報を抽出完了すると、前記抽出された視線情報および近傍の視線情報ならびに抽出されたフレームの位置を基に新たな視線情報を補間生成し、この補間生成された視線情報を基に全方位画像をスクリーン画像に描画し、該スクリーン画像を選択フレームの画像として書き出す手順と、を実行することを特徴とする。
 本発明によれば、全方位画像の作画の再現において、見回しによる没入感を効果的に保ちつつ、運筆の様子をわかりやすく提示する映像の自動的な生成を実現する映像生成装置、映像生成プログラム、及び映像生成方法を提供することができる。
本発明の一実施形態に係る映像生成装置の構成を示す図である。 映像生成に使用するメインメモリのメモリマップを示す図である。 (a)及び(b)は再現シーケンスに記録されている情報の種類と構造を示す図である。 本発明の一実施形態に係る映像生成プログラムの全体の処理の流れを示すフローチャートである。 再現シーケンスの一例を示す図である。 再現シーケンスをグループに分ける概念を示す図である。 再現シーケンスの関連付けの概念を示す図である。 再現シーケンスおよび再生フレームを時系列に配置した例を示す図である。 (a)及び(b)は映像生成例(作画の様子、映像生成の様子)を示す図である。
 以下、本発明の映像生成装置、映像生成プログラム、及び映像生成方法に係る好適な実施形態について図面を参照しながら説明する。なお、本発明の映像生成装置、映像生成プログラム、及び映像生成方法は、以下の記述に限定されるものではなく、本発明の要旨を逸脱しない範囲において、適宜変更可能である。以下、詳述する。
 図1には本発明の一実施形態に係る映像生成装置の構成を示し説明する。
 この図1に示されるように、映像生成装置1は、パーソナルコンピュータ10と表示装置20、映像パラメータ入力装置30等からなる。
 パーソナルコンピュータ10は、マルチタスク対応プロセッサ等からなる中央制御部11と、一時記憶装置としてのRAM(Random Access Memory)等からなるメインメモリ12、グラフィックカード等の画像制御部13、入出力制御部14、内蔵不揮発性記憶媒体15、メディア読み書きインターフェイス16を含む。
 画像制御部13は、ビデオメモリ13aも備えている。ビデオメモリ13aとは、パーソナルコンピュータ10本体のメインメモリ12と同じく、一時的にデータを保存する場所であり、グラフィックカードについているメモリはVRAM(Video RAM)とも称される。画面に3Dグラフィック画像を表示する場合、その際に必要となるデータ量は大きくなる。画像制御部13で処理を終えたデータはビデオメモリ13aに保存されて随時使われていく。ビデオメモリ13aの容量が多いほど、細かい3Dグラフィック画像でも、スムーズに不良もなく表示することができるようになる。尚、昨今ではVRAMの高速化が進み、GDDR(Graphics DDR)と称される高速処理専用のメモリ規格も登場し、3次元グラフィックス描画における莫大なデータの高速転送が実現されている。
 表示装置20は、液晶ディスプレイ等に代表される、画像を表示することができる装置である。映像パラメータ入力装置30は、見回し映像出力データ41に関する調整(例えば、視線情報や再生速度、画質の調整等)をユーザが任意に指定可能とする装置であり、即ちマウスやタッチパネル、ペンタブレットに代表される、座標入力及び/又はボタン入力が可能な装置、並びにキーボードに代表される、キー入力が可能な装置である。
 プログラムデータ50や方位画素対応付けデータ42、シーケンス入力データ40はメディア読み書きインターフェイス16を介してパーソナルコンピュータ10に入力され、見回し映像出力データ41はメディア読み書きインターフェィス16を介してパーソナルコンピュータ10より外部に出力される。
 プログラムデータ50とは、本発明が動作可能なソフトウェアである。後述する映像生成プログラムのデータ等がこれに該当する。
 方位画像対応付けデータ42とは、方位と画素の位置を相互に対応付けるテーブル又は関数である。ポリゴンモデルを用いる場合は、ポリゴンモデルデータがこれに相当し、3次元形状のオブジェクトとなる。方位画像対応付けデータ42は、プログラムデータ50に付随してもよいし、外部で定義されたデータを読み込んでもよい。
 シーケンス入力データ40は、ソフトウェアが扱うデータであり、全方位画像編集装置における作画の操作が順番に記録されたデータであり、後述の再現シーケンスとして用いる。入力されたデータはメインメモリ12に一時記憶される。見回し映像出力データ41は、ソフトウェアが扱う画像群であり、連続した画像、すなわち映像データとして出力される。
 方位画像対応付けデータ42及びプログラムデータ50は、不図示の外部記憶媒体から読み込んでもよく、通信ネットワークを介して不図示の外部コンピュータから不図示の通信制御部により受信し、入出力制御部14を介して内蔵不揮発性記憶媒体15に取り込んでもよい。見回し映像出力データ41は、不図示の外部記憶媒体へ書き込んでもよく、通信ネットワークを介して不図示の外部コンピュータに送信してもよい。
 図2には映像生成に使用するメインメモリ12のメモリマップを示している。
 各画像は、不透明度付きの色情報(a:アルファ,r:赤,g:緑,b:青)を2次元的な配列として持つ。「アルファ」とは、不透明度情報を示している。パソコンでは1つのピクセルの色情報を、24ビット(1色につき8ビット、赤・緑・青の3色で8×3=24ビット)という単位で記録している。8ビットでは、256段階の記録ができる。アルファ付きPNG(32ビットPNG;32bit Portable Network Graphics)では色情報の他に、各ピクセルの不透明度も8ビットの256段階で記録できる。アルファ値がゼロで完全な透明、255で完全な不透明であることを意味する。
 全方位画像関連情報とは、全方位画像編集装置における作画者および本発明における鑑賞者の全方位を覆う背景(すなわち全方位画像)を表すための情報である。同図は特にポリゴンモデルを利用する場合の例である。ポリゴン頂点は、3次元空間座標(x:水平,y:垂直,z:奥行き)と2次元テクスチャ座標(u:水平,v:垂直)とを持つ。ポリゴン面は、三角形を表わすため、ポリゴン頂点への参照を3つとテクスチャ画像への参照をレイヤー枚数分だけ持つ。ポリゴンモデルは、3次元形状を表わすため、ポリゴン頂点とポリゴン面とをそれぞれ配列として持つことになる。1つのレイヤーが持つテクスチャ群の構造がどのレイヤーについても同一である場合、テクスチャ画像への参照は、レイヤー内の相対的な参照を1つとしてもよい。
 スクリーン画像とは、全方位画像を座標変換により2次元座標平面上に投影し、表示装置20により作画者に提示する画像、または見回し映像出力データ41として出力する1フレーム分の画像である。本発明においては、主に全方位画像の更新の過程をスクリーン画像に投影し、鑑賞者に提示する。
 ドローイングとは、全方位画像編集装置において主にポインティングデバイスを用いて2次元(平面)の画像に対して図形や線等の描き込みを行う作業である。ドローイング画像(ドローイング用画像)とは、作画者が実際にドローイングを行う対象とする2次元(平面)の画像である。ドローイング画像は、スクリーン画像とは別の記憶域にあり、スクリーン画像と同じ座標系であり、ドローイング開始前は完全に透明な状態とする。ドローイングを施した箇所は不透明度情報及び色情報を更新する。これは、即ち作画者がスクリーン画像に重なっている透明な層にドローイングを行うことに等しい。ドローイングの手法として、フリーハンド、直線、曲線、矩形、円、画像の貼り付け、等が挙げられる。ドローイングの属性は、手法が線の場合は幅や色、手法が図形の場合は塗りつぶしの模様、等が考えられる。本発明においては、ドローイングは後述の再現シーケンスによって自動的に行われる。
 なお、ドローイング画像はドローイングの内容を全方位画像に反映させるまでの一時的な画像でもあり、必要に応じて用いればよい。例えば、作画においてドローイング終了前に再び視線変更モードに戻る(視線を修正する)ことを必要とせず、ドローイング内容を直ちに全方位画像へ反映する事を作画ルールとする場合、ドローイング画像を用いない事も可能である。
 再現シーケンスとは、全方位画像編集装置における作画の操作が情報として順番に記録されたデータであり、本発明においては全方位画像の更新に用いられる。
 以下、図3には再現シーケンスに記録されている情報の種類と構造を示し詳述する。
 再現シーケンスの要素となる情報は少なくとも2種類あり、主に視線情報とストローク情報である。
 視線情報は、主に視線角度(ヨー角,ピッチ角,ロール角)および視野角を持つ。このほか、視線情報としてシフト量(水平シフト、垂直シフト)を持ってもよい。シフトとは、画像を平行移動する手法であり、たとえば全方位画像編集装置を用いた遠近感の表現において、遠方から水平線にかけての地面や、近くにある高い建造物の上部などを、視野角を大きくせず詳細に表現することができる。
 ストローク情報は、ドローイング属性および/またはドローイング終了フラグを持つ。
 ストローク情報が持つドローイング属性は、ドローイングの手法が直線である場合を例として、始点座標と終点座標(x:水平ピクセル,y:垂直ピクセル)、色情報(a:アルファ,r:赤,g:緑,b:青)、線の幅、を持つ。なお、曲線やフリーハンドを表現する場合も、短い直線を複数用いることで近似することができる。
 ストローク情報が持つドローイング終了フラグは、ドローイング終了処理(すなわち、これまでに描き込まれたドローイング画像を全方位画像に描画し、ドローイング画像をクリアする処理)を行うかを判断するためのフラグである。
 全方位画像編集装置において、ドローイングは原則的に何らかの方向を向いた状態で行われる。すなわち、再現シーケンスに含まれるストローク情報は、それぞれいずれかの視線情報に関連している事となる。
 次に図4のフローチャートを参照して、本発明の一実施形態に係る映像生成プログラムの全体の処理の流れを示し説明する。
 なお、同図はドローイング画像を用いる場合を例とし、ストローク情報を抽出した後、ドローイング画像を更新する処理と全方位画像を更新する処理とに分かれている。また、同様にスクリーン画像に描画する処理についても同様に分かれている。
 また、同図はレイヤーの概念を含めていないが、レイヤーを用いる場合は全方位画像およびドローイング画像をスクリーン画像に描画する順序等に注意する。
 処理を開始すると、先ず再現シーケンスが持つ全ての有効な視線情報を抽出完了したか否かを判断する(ステップS1)。ここでは、まだ抽出完了していないので、Noに分岐し、次の有効な視線情報を抽出する(ステップS2)。
 続いて、抽出された視線情報に関する全てのフレームを選択完了したか否かを判断する(ステップS3)。ここでは、まだ選択完了していないので、Noに分岐し、次のフレームを選択する(ステップS4)。
 次いで、選択フレームに関する全てのストローク情報を抽出完了したか否かを判断する(ステップS5)。ここで、まだ抽出完了していない場合には、Noに分岐し、次のストローク情報を抽出する(ステップS6)。ただし、選択フレームに関するストローク情報が存在しない場合、そのまま抽出完了とし、ステップS5をYesに分岐し、ステップS12に進む。
 続いて、ストローク情報がドローイング属性を含んでいるか否かを判断する(ステップS7)。ここで、含んでいる場合には、Yesに分岐し、ドローイング属性を基にドローイング画像を更新し(ステップS8)、ステップS9に進む。一方、含んでいない場合には、そのままステップS9に進む。
 次いで、ストローク情報がドローイング終了フラグを含んでいるか否かを判断する(ステップS9)。ここで、含んでいる場合には、Yesに分岐し、抽出された視線情報を基にドローイング画像を全方位画像に描画し(ステップS10)、ドローイング画像をクリアし(ステップS11)、ステップS5に戻る。
 そして、再び、選択フレームに関する全てのストローク情報を抽出完了したか否かを判断する(ステップS5)。ここで、抽出完了している場合には、Yesに分岐し、抽出された視線情報および近傍の視線情報ならびに抽出されたフレームの位置を基に新たな視線情報を補間生成し(ステップS12)、補間生成された視線情報を基に全方位画像をスクリーン画像に描画し(ステップS13)、補間生成された視線情報および抽出された視線情報を基にドローイング画像をスクリーン画像に描画し(ステップS14)、スクリーン画像を選択フレームの画像として書き出し(ステップS15)、ステップS3に戻る。なお、「選択フレームの画像として書き出し」とは、鑑賞者に提示するための画像を生成する処理である。
 続いて、再び、抽出された視線情報に関する全てのフレームを選択完了したか否かを判断する(ステップS3)。ここで、選択完了したと判断した場合には、Yesに分岐し、ステップS1に戻る。ステップS1では、再び、再現シーケンスが持つ全ての有効な視線情報を抽出完了したか否かが判断され(ステップS1)、抽出完了していなければ前述したようなステップS1乃至S15の処理が繰り返される。そして、抽出完了すると、本処理を終了することになる。
 以下、上記処理について更に掘り下げて説明する。
 図5には再現シーケンスの一例を示し説明する。
 同図は番号を0~41とする合計42個の要素を持つ再現シーケンスの例である。再現シーケンスの要素の種類として、視線情報は「■」、ドローイング属性を持つストローク情報は「▲」、ドローイング終了フラグを持つストローク情報は「△」で表している。
 説明を容易にするため、この例および以降の例では、再現シーケンスの元となった全方位画像編集装置における作画のルールとして、視線の変更の直前にドローイング終了が行われることを前提としている。
 図6には、先述の再現シーケンスをグループに分ける概念を示す。
 同図は1つのグループを1つの行で表している。ドローイング終了フラグを持つストローク情報をグループの末尾とする。なお、視線情報が存在しないグループがある場合、そのグループを直前のグループに結合するとよい。
 図7には、再現シーケンスの関連付けの概念を示す。
 先述のグループ化された再現シーケンスに対して、関連付けを行う。
 まず、データの関連付けに先立ち、視線情報が複数存在しているグループについて、グループ内の最後の視線情報を有効な視線情報とみなす。有効とみなされない視線情報は破棄する。これにより、各グループの視線情報を正しく用いることができると同時に、関連するストローク情報が1つもない視線情報を不要にできる。
 データの関連付けの概念を示す。視線情報群をVと表し、添字jの視線情報をV[j]と表す。すなわち、視線情報群Vの添字はグループ番号でもある。ストローク情報群をSと表し、添字iのストローク情報をS[i]と表す。視線情報V[j]に関連するストローク先頭位置リストをpと表し、添字jの視線情報V[j]に関連するストローク情報の先頭位置をp[j]と表す。すなわち、添字jの視線情報V[j]に関連する先頭のストローク情報をS[p[j]]で表す。
 ここで、視線情報V[j]に関連するストローク情報群は、添字がp[j]以上p[j+1]未満である各ストローク情報(即ちS[p[j]+0]、S[p[j]+1]、S[p[j]+2]、...、S[p[j+1]-1])となるので、添字jの視線情報V[j]に関連するストローク情報の総数はp[j+1]-p[j]により求めることができる。
 以上が再現シーケンスの関連付けの例であるが、1つの視線情報と、それに関連するストローク情報群をグループ化する方法であれば、他の方法を用いて関連付けを行ってもよい。その際、再現シーケンスの元となる全方位画像編集装置における作画のルールに適する方法が望まれる。
 ストロークの再生を一時停止させて見回しのみを行う期間を設けるような場合は、関連するストローク情報が1つもない視線情報を任意に挿入可能であってもよい。
 図8には、再現シーケンスおよび再生フレームを時系列に配置した例を示す。
 同図の例は、先述の視線情報およびストローク情報、さらに映像生成のための再生フレームについて、それらの関係を時系列で表している。
 作画に用いた視線情報は、先述の例を基にV[0]~V[3]の合計4つとする。各視線情報間の時間は等間隔になるようにする。1つの視線情報に関連する各情報の集まりをグループとする。例えば、V[0]に関連するグループ番号は0である。グループの境目は、隣り合う2つの視線情報の中央付近とする。
 再生フレーム数は例として視線情報1つあたり(すなわち、1グループあたり)10フレーム、合計40フレームとする。
 すなわち、
  V[0]に関連するフレーム番号を0~9
  V[1]に関連するフレーム番号を10~19
  V[2]に関連するフレーム番号を20~29
  V[3]に関連するフレーム番号を30~39
とする。
 各フレーム間の時間は等間隔になるようにし、さらに視線情報の時刻が、それに関連するフレーム群の中央付近となるようにする。
 例えばV[1]の時刻が、フレーム番号10とフレーム番号20との中央(すなわちフレーム番号15)の時刻となるよう、各フレーム(すなわちフレーム番号10~19)の時刻を調整する。この場合、フレーム番号10の時刻はV[0]とV[1]との中心時刻となる。このように、1グループあたりのフレーム数(および視線情報間のフレーム数)は一定であることが望ましい。ただし、一定のフレーム数とは、実際には数フレーム(1~2フレーム程度)の誤差を許容してもよい(もし、全体で50フレームの映像を4グループで生成したい場合、各グループのフレーム数は12または13になる)。
 各グループにおけるストローク情報群については、先述の例を基に
  V[0]に関連するストローク情報群をS[0]~S[4]の合計5個
  V[1]に関連するストローク情報群をS[5]~S[17]の合計13個
  V[2]に関連するストローク情報群をS[18]~S[26]の合計9個
  V[3]に関連するストローク情報群をS[27]~S[31]の合計5個
とする。
 このとき、ストローク先頭位置pの内容は、p[0]=0、p[1]=5、p[2]=18、p[3]=27、p[4]=32となる。なお、p[4]の値はストローク情報の最後の添字(31)に1を加えたものであり、すなわち、終端のデータV[3]においてストローク情報総数を求めるために用いる。
 各ストローク情報間の時間は等間隔になるようにし、さらに視線情報の時刻が、それに関連するストローク情報群の中央付近となるようにする。
 例えばV[0]の時刻が、S[0]とS[5]との中央の時刻となるよう、各ストローク情報(S[0]~S[4])の時刻を調整する。
 グループ内のストローク情報の数は、全グループ共通になるとは限らないことに留意する。これは、ストローク情報間の時間は全体を通して等間隔とは限らず、ストロークの再生速度が必ずしも一定ではないことを意味する。
 以上のデータを用い、各フレームについて画像を生成する。
 ここで、例としてフレーム番号13の画像を生成する流れを説明する。フレーム番号0~12の画像は既に生成されているものとする。
 まず、フレームに表示する全方位画像および/またはドローイング画像にストロークを反映するため、直前のフレームの時刻より後、かつ現在のフレームの時刻以下の範囲にあるストローク情報(群)、すなわちS[8]~S[9]を用いる事とする。
 ストロークを書き込む場合(特に、全方位画像を更新する場合)の視線情報は、フレーム番号13が関わっているグループ(すなわちグループ番号1)の視線情報であるのでV[1]である。
 なお、既にS[0]~S[7]を用いるストロークは先行して全方位画像およびドローイング画像に反映されているはずであり、これに加えてS[8]~S[9]のストロークが反映される事となる。
 続いて、フレームに全方位画像およびドローイング画像を表示するための新たな視線を求める。フレームに時刻が近い4つの視線情報を用いて、曲線の補間方法の一つであるCatmull-Rom補間により算出する。
 すなわち、CatmullRom(V[-1],V[0],V[1],V[2],(10-5)÷10)をヨー角、ピッチ角、ロール角、および視野角のそれぞれについて算出して補間する。ただし、V[-1]は存在しないので、代わりにデータの先端であるV[0]を用い、CatmullRom(V[0],V[0],V[1],V[2],(10-5)÷10)を算出する。曲線の補間方法を用いることで、視線移動が曲線的で滑らかとなり、視線の急激な方向転換を防ぐことができる。
 以上のように用意された全方位画像およびドローイング画像ならびに視線を用いて、フレームの画像を生成する。
 図9には映像生成例(作画の様子、映像生成の様子)を示す。
 先述の例を具体的に示す。図9は複数の長方形を様々な方向に描いた場合の映像生成例である。ここでは、全方位画像編集装置において、作画者は正面に長方形を1つ描き、真下を向いて長方形を3つ描き、正面右を向いて長方形を2つ描き、背面に長方形を1つ描いたものとする。
 ドローイングの手法は全て直線とし、1つの長方形につき、ドローイング属性を持ったストローク情報を4つ用いている。視線の移動の直前には、ドローイング終了フラグを持ったストローク情報を1つ用いている。
 生成される映像は作画時の視線(ただし、破棄された視線を除く。以後同様)を順番に通りながら滑らかに視線が移動する。
 作画時の視線と同等の視線を通るフレーム(たとえば、フレーム番号5)のとき、その視線情報が含まれるグループのストロークは半分程度完了している。作画時の視線とその次の視線の中央付近を通るフレーム(たとえば、フレーム番号10)のときにグループが切り替わり、次のグループのストロークが開始する。
 ここで、本発明には以下が含まれる。
 本発明の第1の態様によれば、映像生成プログラム(プログラムデータ50)を記憶する記憶部たるメインメモリ12と、前記記憶部に記憶された映像生成プログラムを実行することで、視線情報およびストローク情報群が記録された再現シーケンスから、有効な視線情報に関してストローク情報群を対応付け、視線情報間のフレーム数を一定とし、第1の視線から第2の視線を経て第3の視線へと視線を移動するときには、前記第1及び第2の中央のフレームから前記第2及び第3の中央のフレームまでの範囲には、前記第2の視線に対応するストローク情報群を再生するよう制御する中央制御部11と、を備えたことを特徴とする映像生成装置が提供される。
 本発明の第2の態様によれば、映像生成プログラム(プログラムデータ50)を記憶する記憶部としてのメインメモリ12と、前記映像生成プログラムを実行することで、再現シーケンスが持つ有効な視線情報を抽出し、前記抽出された視線情報に関するフレームを選択し、前記選択されたフレームに関するストローク情報を抽出し、前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性および前記視線情報を基に全方位画像を更新し、前記選択されたフレームに関する全てのストローク情報を抽出完了すると、前記抽出された視線情報および近傍の視線情報ならびに抽出されたフレームの位置を基に新たな視線情報を補間生成し、この補間生成された視線情報を基に全方位画像をスクリーン画像に描画し、該スクリーン画像を選択フレームの画像として書き出す、ように制御する中央制御部11と、を備えたことを特徴とする映像生成装置が提供される。
 本発明の第3の態様によれば、コンピュータ10を、記憶部としてのメインメモリ12に記憶された映像生成プログラム(プログラムデータ50)を実行することで、視線情報およびストローク情報群が記録された再現シーケンスから、有効な視線情報に関してストローク情報群を対応付け、視線情報間のフレーム数を一定とし、第1の視線から第2の視線を経て第3の視線へと視線を移動するときには、前記第1及び第2の中央のフレームから前記第2及び第3の中央のフレームまでの範囲には、前記第2の視線に対応するストローク情報群を再生するよう制御する中央制御部11として機能させることを特徴とする映像生成プログラムが提供される。
 本発明の第4の態様によれば、コンピュータ10を、記憶部としてのメインメモリ12に記憶された映像生成プログラム(プログラムデータ50)を実行する手順と、再現シーケンスが持つ有効な視線情報を抽出する手順と、前記抽出された視線情報に関するフレームを選択する手順と、前記選択されたフレームに関するストローク情報を抽出する手順と、前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性および前記視線情報を基に全方位画像を更新する手順と、前記選択されたフレームに関する全てのストローク情報を抽出完了すると、前記抽出された視線情報および近傍の視線情報ならびに抽出されたフレームの位置を基に新たな視線情報を補間生成し、この補間生成された視線情報を基に全方位画像をスクリーン画像に描画し、該スクリーン画像を選択フレームの画像として書き出す手順と、を実行するように制御する中央制御部11として機能させることを特徴とする映像生成プログラムが提供される。
 本発明の第5の態様によれば、中央制御部11が、記憶部としてのメインメモリ12に記憶された映像生成プログラム(プログラムデータ50)を実行することで、視線情報およびストローク情報群が記録された再現シーケンスから、有効な視線情報に関してストローク情報群を対応付け、視線情報間のフレーム数を一定とし、第1の視線から第2の視線を経て第3の視線へと視線を移動するときには、前記第1及び第2の中央のフレームから前記第2及び第3の中央のフレームまでの範囲には、前記第2の視線に対応するストローク情報群を再生することを特徴とする映像生成方法が提供される。
 本発明の第6の態様によれば、中央制御部11が、記憶部としてのメインメモリ12に記憶された映像生成プログラム(プログラムデータ50)を実行する手順と、再現シーケンスが持つ有効な視線情報を抽出する手順と、前記抽出された視線情報に関するフレームを選択する手順と、前記選択されたフレームに関するストローク情報を抽出する手順と、前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性および前記視線情報を基に全方位画像を更新する手順と、前記選択されたフレームに関する全てのストローク情報を抽出完了すると、前記抽出された視線情報および近傍の視線情報ならびに抽出されたフレームの位置を基に新たな視線情報を補間生成し、この補間生成された視線情報を基に全方位画像をスクリーン画像に描画し、該スクリーン画像を選択フレームの画像として書き出す手順と、を実行することを特徴とする映像生成方法が提供される。
 このように本発明は、全方位画像が更新される様子(すなわち、ストロークの様子)を高い確率で観察できる映像を生成するので、運筆の様子をわかりやすく提示できる。
 さらに本発明は、作画者による操作を記憶したデータを利用して自動的に映像を生成するので、映像生成にかかる作業の負担を軽減できる。
 前述した通り、ストロークの再生速度は必ずしも一定ではない。ただし、ストロークの再生速度の変化は、視線の移動速度の変化ほどには没入感に影響を与えないものと考えられる。すなわち、本発明は、ストロークの再生速度の変化を許容することで、滑らかな視線移動を可能とし、見回しによる没入感を効果的に保つ効果が期待できる。
 1 映像生成装置
10 パーソナルコンピュータ
11 中央制御部
12 メインメモリ
13 画像制御部
13aビデオメモリ
14 入出力制御部
15 内蔵不揮発性記憶媒体
16 メディア読み書きインターフェイス
20 表示装置
30 映像パラメータ入力装置
40 シーケンス入力データ
41 見回し映像出力データ
42 方位画素対応付けデータ
50 プログラムデータ

Claims (15)

  1.  映像生成プログラムを記憶する記憶部と、
     前記記憶部に記憶された映像生成プログラムを実行することで、視線情報およびストローク情報群が記録された再現シーケンスから、有効な視線情報に関してストローク情報群を対応付け、視線情報間のフレーム数を一定とし、第1の視線から第2の視線を経て第3の視線へと視線を移動するときには、前記第1及び第2の中央のフレームから前記第2及び第3の中央のフレームまでの範囲には、前記第2の視線に対応するストローク情報群を再生するよう制御する中央制御部と、を備えたこと
    を特徴とする映像生成装置。
  2.  映像生成プログラムを記憶する記憶部と、
     前記映像生成プログラムを実行することで、
     再現シーケンスが持つ有効な視線情報を抽出し、
     前記抽出された視線情報に関するフレームを選択し、
     前記選択されたフレームに関するストローク情報を抽出し、
     前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性および前記視線情報を基に全方位画像を更新し、
     前記選択されたフレームに関する全てのストローク情報を抽出完了すると、前記抽出された視線情報および近傍の視線情報ならびに抽出されたフレームの位置を基に新たな視線情報を補間生成し、この補間生成された視線情報を基に全方位画像をスクリーン画像に描画し、該スクリーン画像を選択フレームの画像として書き出す、
    ように制御する中央制御部と、を備えたこと
    を特徴とする映像生成装置。
  3.  前記再現シーケンスは、視線情報とストローク情報を含み、
     前記視線情報は視線角度や視野角の情報を含み、
     前記ストローク情報はドローイング属性を含むこと
    を特徴とする請求項2に記載の映像生成装置。
  4.  前記ドローイング属性は、始点座標、終点座標、色情報、線の幅の情報の少なくともいずれかを含むこと
    を特徴とする請求項3に記載の映像生成装置。
  5.  前記ストローク情報はドローイング終了フラグを含み、
     前記中央制御部は、前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性を基にドローイング画像を更新し、前記ストローク情報がドローイング終了フラグを含んでいる場合には、前記視線情報を基に前記ドローイング画像を全方位画像に描画し、前記補間生成された視線情報および抽出された視線情報を基にドローイング画像をスクリーン画像に描画すること
    を特徴とする請求項2乃至4のいずれかに記載の映像生成装置。
  6.  コンピュータを、
     記憶部に記憶された映像生成プログラムを実行することで、視線情報およびストローク情報群が記録された再現シーケンスから、有効な視線情報に関してストローク情報群を対応付け、視線情報間のフレーム数を一定とし、第1の視線から第2の視線を経て第3の視線へと視線を移動するときには、前記第1及び第2の中央のフレームから前記第2及び第3の中央のフレームまでの範囲には、前記第2の視線に対応するストローク情報群を再生するよう制御する中央制御部として機能させること
    を特徴とする映像生成プログラム。
  7.  コンピュータを、
     記憶部に記憶された映像生成プログラムを実行する手順と、
     再現シーケンスが持つ有効な視線情報を抽出する手順と、
     前記抽出された視線情報に関するフレームを選択する手順と、
     前記選択されたフレームに関するストローク情報を抽出する手順と、
     前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性および前記視線情報を基に全方位画像を更新する手順と、
     前記選択されたフレームに関する全てのストローク情報を抽出完了すると、前記抽出された視線情報および近傍の視線情報ならびに抽出されたフレームの位置を基に新たな視線情報を補間生成し、この補間生成された視線情報を基に全方位画像をスクリーン画像に描画し、該スクリーン画像を選択フレームの画像として書き出す手順と、
    を実行するように制御する中央制御部として機能させること
    を特徴とする映像生成プログラム。
  8.  前記再現シーケンスは、視線情報とストローク情報を含み、
     前記視線情報は視線角度や視野角の情報を含み、
     前記ストローク情報はドローイング属性を含むこと
    を特徴とする請求項7に記載の映像生成プログラム。
  9.  前記ドローイング属性は、始点座標、終点座標、色情報、線の幅の情報の少なくともいずれかを含むこと
    を特徴とする請求項8に記載の映像生成プログラム。
  10.  前記ストローク情報はドローイング終了フラグを含み、
     前記中央制御部は、前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性を基にドローイング画像を更新し、前記ストローク情報がドローイング終了フラグを含んでいる場合には、前記視線情報を基に前記ドローイング画像を全方位画像に描画し、前記補間生成された視線情報および抽出された視線情報を基にドローイング画像をスクリーン画像に描画すること
    を特徴とする請求項7乃至9のいずれかに記載の映像生成プログラム。
  11.  中央制御部が、記憶部に記憶された映像生成プログラムを実行することで、視線情報およびストローク情報群が記録された再現シーケンスから、有効な視線情報に関してストローク情報群を対応付け、視線情報間のフレーム数を一定とし、第1の視線から第2の視線を経て第3の視線へと視線を移動するときには、前記第1及び第2の中央のフレームから前記第2及び第3の中央のフレームまでの範囲には、前記第2の視線に対応するストローク情報群を再生すること
    を特徴とする映像生成方法。
  12.  中央制御部が、
     記憶部に記憶された映像生成プログラムを実行する手順と、
     再現シーケンスが持つ有効な視線情報を抽出する手順と、
     前記抽出された視線情報に関するフレームを選択する手順と、
     前記選択されたフレームに関するストローク情報を抽出する手順と、
     前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性および前記視線情報を基に全方位画像を更新する手順と、
     前記選択されたフレームに関する全てのストローク情報を抽出完了すると、前記抽出された視線情報および近傍の視線情報ならびに抽出されたフレームの位置を基に新たな視線情報を補間生成し、この補間生成された視線情報を基に全方位画像をスクリーン画像に描画し、該スクリーン画像を選択フレームの画像として書き出す手順と、
    を実行すること
    を特徴とする映像生成方法。
  13.  前記再現シーケンスは、視線情報とストローク情報を含み、
     前記視線情報は視線角度や視野角の情報を含み、
     前記ストローク情報はドローイング属性を含むこと
    を特徴とする請求項12に記載の映像生成方法。
  14.  前記ドローイング属性は、始点座標、終点座標、色情報、線の幅の情報の少なくともいずれかを含むこと
    を特徴とする請求項13に記載の映像生成方法。
  15.  前記ストローク情報はドローイング終了フラグを含み、
     前記中央制御部は、前記ストローク情報がドローイング属性を含んでいる場合には、該ドローイング属性を基にドローイング画像を更新し、前記ストローク情報がドローイング終了フラグを含んでいる場合には、前記視線情報を基に前記ドローイング画像を全方位画像に描画し、前記補間生成された視線情報および抽出された視線情報を基にドローイング画像をスクリーン画像に描画すること
    を特徴とする請求項12乃至14のいずれかに記載の映像生成方法。
PCT/JP2013/000138 2013-01-16 2013-01-16 映像生成装置、映像生成プログラム、及び映像生成方法 WO2014111968A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014557173A JP5980960B2 (ja) 2013-01-16 2013-01-16 映像生成装置、映像生成プログラム、及び映像生成方法
US14/761,537 US9824721B2 (en) 2013-01-16 2013-01-16 Video generation device, video generation program, and video generation method
PCT/JP2013/000138 WO2014111968A1 (ja) 2013-01-16 2013-01-16 映像生成装置、映像生成プログラム、及び映像生成方法
KR1020157018950A KR102045413B1 (ko) 2013-01-16 2013-01-16 영상 생성 장치, 영상 생성 프로그램이 저장된 매체, 및 영상 생성 방법
US15/816,184 US10249340B2 (en) 2013-01-16 2017-11-17 Video generation device, video generation program, and video generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/000138 WO2014111968A1 (ja) 2013-01-16 2013-01-16 映像生成装置、映像生成プログラム、及び映像生成方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/761,537 A-371-Of-International US9824721B2 (en) 2013-01-16 2013-01-16 Video generation device, video generation program, and video generation method
US15/816,184 Division US10249340B2 (en) 2013-01-16 2017-11-17 Video generation device, video generation program, and video generation method

Publications (1)

Publication Number Publication Date
WO2014111968A1 true WO2014111968A1 (ja) 2014-07-24

Family

ID=51209103

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/000138 WO2014111968A1 (ja) 2013-01-16 2013-01-16 映像生成装置、映像生成プログラム、及び映像生成方法

Country Status (4)

Country Link
US (2) US9824721B2 (ja)
JP (1) JP5980960B2 (ja)
KR (1) KR102045413B1 (ja)
WO (1) WO2014111968A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10104288B2 (en) * 2017-02-08 2018-10-16 Aspeed Technology Inc. Method and apparatus for generating panoramic image with stitching process
US10810700B2 (en) 2019-03-05 2020-10-20 Aspeed Technology Inc. Method of adjusting texture coordinates based on control regions in a panoramic image
CN111739382A (zh) * 2020-06-17 2020-10-02 卢轩 一种利用ai辅助教学的书法教学装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147303A1 (ja) * 2011-04-25 2012-11-01 Hayashi Mitsuo 全方位画像編集プログラム及び全方位画像編集装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0723689B1 (en) * 1993-10-15 1998-02-04 EVANS & SUTHERLAND COMPUTER CORPORATION Direct rendering of textured height fields
JP2001008232A (ja) * 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd 全方位映像出力方法と装置
US20020051081A1 (en) * 2000-06-30 2002-05-02 Osamu Hori Special reproduction control information describing method, special reproduction control information creating apparatus and method therefor, and video reproduction apparatus and method therefor
JP4297010B2 (ja) * 2004-08-13 2009-07-15 ソニー株式会社 情報処理装置および情報処理方法、並びに、プログラム
JP4752921B2 (ja) * 2009-01-28 2011-08-17 ソニー株式会社 情報処理装置、アニメーション付加方法、及びプログラム
US9202309B2 (en) * 2011-09-01 2015-12-01 Adobe Systems Incorporated Methods and apparatus for digital stereo drawing

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147303A1 (ja) * 2011-04-25 2012-11-01 Hayashi Mitsuo 全方位画像編集プログラム及び全方位画像編集装置

Also Published As

Publication number Publication date
US10249340B2 (en) 2019-04-02
JP5980960B2 (ja) 2016-08-31
US9824721B2 (en) 2017-11-21
KR20150107747A (ko) 2015-09-23
KR102045413B1 (ko) 2019-11-15
JPWO2014111968A1 (ja) 2017-01-19
US20180075880A1 (en) 2018-03-15
US20150364157A1 (en) 2015-12-17

Similar Documents

Publication Publication Date Title
JP5896424B2 (ja) 全方位画像編集プログラム及び全方位画像編集装置
US9766793B2 (en) Information processing device, information processing method and program
JP4982862B2 (ja) プログラム、情報記憶媒体及び画像生成システム
KR102422929B1 (ko) 디스플레이장치, 서버 및 그 제어방법
US11651556B2 (en) Virtual exhibition space providing method for efficient data management
US10249340B2 (en) Video generation device, video generation program, and video generation method
WO2012032996A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3616402A1 (en) Methods, systems, and media for generating and rendering immersive video content
KR102237519B1 (ko) 2.5 차원화를 이용한 가상 전시 공간 제공 방법
JPH0997344A (ja) テクスチャ生成方法およびテクスチャ生成システム
JP2008287588A (ja) 画像処理装置および方法
WO2017002483A1 (ja) プログラム、情報処理装置、深度定義方法及び記録媒体
CN106169187A (zh) 用于对视频中的物体设界的方法和设备
GB2549723A (en) A system and method for video editing in a virtual reality enviroment
CN108510433B (zh) 空间展示方法、装置及终端
JP5857606B2 (ja) 奥行き製作支援装置、奥行き製作支援方法、およびプログラム
US20040155886A1 (en) Image simulation processing method, processing apparatus, and program
JP2006293470A (ja) 描画装置、方法および描画プログラム
JP5994320B2 (ja) 奥行き制作支援装置、奥行き制作支援方法、及びプログラム
JP5523295B2 (ja) 動画生成装置
JP2002260003A (ja) 映像表示装置
JP5817300B2 (ja) 奥行き製作支援装置、奥行き製作支援方法、およびプログラム
US20240112394A1 (en) AI Methods for Transforming a Text Prompt into an Immersive Volumetric Photo or Video
WO2015087368A1 (ja) 奥行き情報編集装置、奥行き情報編集方法、奥行き情報編集プログラム、及び奥行き情報編集プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2007025861A (ja) バーチャルリアリティシステム及び方法、並びに、補間画像生成装置及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13871855

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20157018950

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2014557173

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14761537

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 13871855

Country of ref document: EP

Kind code of ref document: A1