WO2017169963A1 - Image processing system, image processing method, program and recording medium - Google Patents

Image processing system, image processing method, program and recording medium Download PDF

Info

Publication number
WO2017169963A1
WO2017169963A1 PCT/JP2017/011146 JP2017011146W WO2017169963A1 WO 2017169963 A1 WO2017169963 A1 WO 2017169963A1 JP 2017011146 W JP2017011146 W JP 2017011146W WO 2017169963 A1 WO2017169963 A1 WO 2017169963A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
composite image
user
images
Prior art date
Application number
PCT/JP2017/011146
Other languages
French (fr)
Japanese (ja)
Inventor
小泉 功
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017048410A external-priority patent/JP6518280B2/en
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2017169963A1 publication Critical patent/WO2017169963A1/en
Priority to US16/121,739 priority Critical patent/US10783355B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the present invention relates to an image processing system, an image processing method, a program, and a recording medium that create a composite image such as a photobook using a plurality of images acquired from a plurality of user terminal devices via a network.
  • Photobooks for example, consider the continuity and relevance of images, classify multiple images into multiple groups based on shooting time, etc., and automatically place images contained in each group on their corresponding pages Created by (automatic layout).
  • a photo book having the bride and groom as the main character is created and sent to the bride and groom.
  • the bride and groom who are the recipients of the photo book use an image that shows each person who attended the wedding reception from among multiple images owned by the bride and groom.
  • the bride and groom request a photographer to take a picture, it is considered that the bride and groom have received a large number of images in which each person attending from the photographer is captured with good image quality. In this case, it is not easy from the prior art to create and send a composite image for each person using the received many images.
  • An object of the present invention is to provide an image processing system, an image processing method, a program, and a recording medium that can create another composite image using an image of a person shown in the composite image based on the composite image. It is in.
  • the present invention provides a first composite image acquisition unit that acquires a first composite image owned by a first user; An image analysis unit for analyzing the content of the first composite image; Based on the analysis result of the first composite image, a person specifying unit for specifying a plurality of persons in the first composite image; A designated person accepting unit that accepts designation of one or more persons as designated persons from a plurality of persons reflected in the first composite image; A first image group holding unit for holding a first image group owned by the first user; An image specifying unit for specifying an image in which the designated person is captured from the first image group; An image processing system is provided that includes a composite image creation unit that creates a second composite image using an image showing a designated person.
  • the first composite image has identification information for identifying the first composite image from other images,
  • An identification information acquisition unit that acquires identification information included in the first composite image;
  • a face image holding unit that acquires a plurality of face images including face images of a plurality of users from a terminal device of a plurality of users via a network, and holds the acquired plurality of face images
  • a face image specifying unit that specifies face images of a plurality of users from among the plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquiring unit;
  • the person specifying unit specifies each of a plurality of users corresponding to each of the plurality of persons shown in the first composite image based on the face images of the plurality of users specified by the face image specifying unit, It is preferable that the designated person receiving unit identifies a user corresponding to one or more designated persons from among a plurality of users identified by the person identifying unit.
  • the present invention also provides an identification information acquisition unit that acquires identification information for identifying the first composite image owned by the first user from other images;
  • a face image holding unit that acquires a plurality of face images including face images of a plurality of users from a terminal device of a plurality of users via a network, and holds the acquired plurality of face images
  • a face image specifying unit that specifies face images of a plurality of users from a plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquisition unit;
  • a first image group holding unit for holding a first image group owned by the first user;
  • a designated person receiving unit that receives designation of one or more persons as a designated person from among a plurality of users identified by the face image identifying unit;
  • An image specifying unit for specifying an image in which the designated person is captured from the first image group;
  • An image processing system is provided that includes a composite image creation unit that creates a second composite image using an image showing a designated person.
  • An importance level information acquisition unit that acquires importance level information of the designated person set by the first user from the terminal device of the first user via the network; It is preferable that the composite image creation unit creates the second composite image based on the importance level information by preferentially using an image in which a designated person having a higher importance than a designated person having a lower importance is captured.
  • a comment obtaining unit for obtaining a first user's comment on the designated person from the terminal device of the first user;
  • the composite image creating unit creates a second composite image using a comment in addition to a plurality of images in which the designated person is shown.
  • a moving image acquisition unit that acquires each of one or more moving images associated with each of the plurality of images used in the second composite image from the terminal device of the first user;
  • the composite image creating unit creates a second composite image using the first image group including one or more images associated with each of the one or more moving images and including the designated person,
  • the first image associated with the first moving image of the one or more moving images in the first image group used in the second composite image is shot by the image shooting unit of the designated person's terminal device, and When the photographed first image is displayed on the image display unit of the designated person's terminal device, the first moving image is preferably reproduced on the image display unit of the designated person's terminal device.
  • the first moving image is reproduced within the display area of the first image displayed on the image display unit of the designated person's terminal device.
  • the first composite image acquisition unit acquires a first composite image owned by the first user; An image analysis unit analyzing the content of the first composite image; A person specifying unit specifying a plurality of persons in the first composite image based on the analysis result of the first composite image; A designated person accepting unit for accepting designation of one or more persons as designated persons from a plurality of persons reflected in the first composite image; A first image group holding unit holding a first image group owned by the first user; An image specifying unit specifying an image in which the designated person is captured from the first image group; And a step of creating a second composite image using an image in which a designated person is captured.
  • the first composite image has identification information for identifying the first composite image from other images
  • An identification information acquisition unit acquiring identification information included in the first composite image
  • the face image holding unit acquires a plurality of face images including the face images of the plurality of users from the terminal devices of the plurality of users via the network, and the acquired plurality of face images Holding step
  • a face image specifying unit specifying a plurality of user face images from the plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquiring unit
  • the step of specifying a person specifies each of a plurality of users corresponding to each of a plurality of persons shown in the first composite image based on the face images of the plurality of users specified by the face image specifying unit
  • the step of accepting the designation of the person preferably specifies a user corresponding to one or more designated persons from among a plurality of users specified by the step of specifying the person.
  • the identification information acquisition unit acquires identification information for identifying the first composite image owned by the first user from other images;
  • the face image holding unit creates the first composite image
  • the face image holding unit acquires a plurality of face images including the face images of the plurality of users from the terminal devices of the plurality of users via the network, and the acquired plurality of face images Holding step;
  • a first image group holding unit holding a first image group owned by the first user;
  • a designated person receiving unit receiving a designation of one or more persons as a designated person from among a plurality of users identified by the face image identifying unit;
  • An image specifying unit specifying an image in which the designated person is captured from the first image group;
  • the present invention also provides a program for causing a computer to execute each step of the image processing method described above.
  • the present invention also provides a computer-readable recording medium on which a program for causing a computer to execute each step of the image processing method described above is recorded.
  • a plurality of persons appearing in the first composite image are identified, and one or more persons are designated as designated persons from among the plurality of identified persons, and are owned by the first user.
  • the first user can specify the image in which the designated person is captured from the first image group, and use the specified image to create a second composite image different from the first composite image. However, it is possible to easily create the second composite image.
  • FIG. 8 is a block diagram of an embodiment illustrating a configuration of a group creation unit illustrated in FIG. 7. It is a block diagram of one Embodiment showing the structure of the user's terminal device shown in FIG. 2 is a flowchart of an embodiment illustrating an operation of the image processing system illustrated in FIG. 1.
  • 12 is a flowchart of an embodiment illustrating the operation of the image processing system following FIG. 11.
  • 13 is a flowchart illustrating an operation of the image processing system following FIG. 12 according to an embodiment.
  • 14 is a flowchart illustrating an operation of the image processing system following FIG. 13 according to an embodiment. It is a conceptual diagram of an example showing the screen which sets the budget of a synthesized image.
  • FIG. 10 is a conceptual diagram illustrating an example of a screen informing that a postcard is created by automatically selecting an image from a first image group. It is a conceptual diagram of an example showing the screen for confirming a 2nd synthesized image. It is a conceptual diagram of an example showing the screen for inputting the address of the person who sends a 2nd synthesized image.
  • FIG. 1 is a block diagram of an embodiment showing a configuration of an image processing system 10 according to the present invention.
  • An image processing system 10 shown in the figure uses a plurality of images acquired from a plurality of terminal devices 14 of a plurality of users involved in the creation of a composite image via a network 16 to generate a composite image such as a photo book including a postscript page. create.
  • the image processing system 10 includes a server 12 and a plurality of user terminal devices (clients) 14 connected to the server 12 via a network 16.
  • the server 12 performs various data processing for creating a composite image based on an instruction from the terminal device 14, and is configured by, for example, a desktop PC (Personal Computer) or a workstation. .
  • the terminal device 14 gives various instructions to the server 12 to perform various data processing, and is configured by, for example, a smartphone, a tablet PC, or a notebook PC.
  • the network 16 is, for example, a telephone line or an Internet line, and connects the server 12 and the terminal device 14 to each other by wire or wireless to enable bidirectional communication.
  • FIG. 2 is a block diagram of an embodiment showing the configuration of the server 12 shown in FIG.
  • the server 12 shown in the figure acquires an information setting unit 18 for setting various types of information related to the composite image, an information management unit 20 for managing various types of information related to creation of the composite image, and various types of data used in the composite image.
  • one user who creates a composite image is expressed as an administrative user, and two or more users including the administrative user are participating users. It expresses. For example, this is the case when the secretary is one of a group of friends. However, in another embodiment, the number of participating users does not include the number of secretary users if the secretary itself does not provide a photo or message, such as when the photo shop undertakes the agency's agency. .
  • FIG. 3 is a block diagram of an embodiment showing the configuration of the information setting unit 18 shown in FIG.
  • the information setting unit 18 shown in the figure includes a budget setting unit 28, a product acquisition unit 30, a cover design setting unit 32, a margin design setting unit 34, a schedule setting unit 36, and an importance information acquisition unit 72. It has.
  • the budget setting unit 28 acquires the budget information of the composite image set by the secretary user from the terminal device 14 of the secretary user via the network 16.
  • the commercial material acquisition unit 30 is set by the secretary user from one or more image products (image product information) having a size and the number of pages corresponding to the budget information acquired by the budget setting unit 28.
  • One image product thus obtained is acquired from the terminal device 14 of the secretary user via the network 16.
  • the image product is a material for creating an image product, and includes, for example, a photo album such as a photo book, a shuffle print, a calendar with an image, and the like.
  • the images are mainly photographs.
  • the image merchandise includes a plurality of types of image merchandise each having a different size and / or number of pages.
  • the number of pages of the image merchandise is the number of pages including the main page and the miscellaneous pages.
  • Image merchandise includes image merchandise for paper media and image merchandise for electronic data.
  • the page in the present invention refers to a unit for performing image arrangement and side-by-side arrangement. In the present embodiment, it refers to a spread page. However, in other embodiments, it may be a single-sided page. Further, inside the image processing system 10 in the present embodiment, the number of pages of the image product may be displayed to the user in units of spread pages and in units of single-sided pages.
  • a photo book is, for example, a composite image in which a plurality of images selected by a user are arranged on a plurality of pages in a layout desired by the user.
  • the photo book may also be a composite image in which images selected by automatic selection from images in a desired period (for example, one year) held by the user are arranged on a plurality of pages by automatic layout (for example, Fuji). Film Co., Ltd. ear album).
  • the shuffle print is a composite image in which a plurality of images are shuffled and arranged on one print.
  • the calendar with image is, for example, a composite image in which images corresponding to the calendars of each month are arranged.
  • the photobook may be a paper medium or electronic data.
  • the composite image is a photo book that includes a grouped page at the end.
  • the message page is a composite image in which message messages of two or more participating users acquired from the terminal devices 14 of the participating users are arranged.
  • the message message is a message of the participating user used in the message page.
  • the profile image may be arranged on the message page.
  • the profile image is, for example, a face image of a participating user, but may be other images.
  • the cover design setting unit 32 receives information on the design of one cover page set by the secretary user from one or more cover page designs via the network 16 from the terminal device 14 of the secretary user. get.
  • the cover page design information includes, for example, the cover page pattern, the design information such as the illustration drawn on the cover page, the title information of the composite image described on the cover page, and the color of the cover page. Information etc. are included.
  • the draft design setting unit 34 sends information on the design of one draft page set by the secretary user from the design of one or more draft pages from the terminal device 14 of the secretary user via the network 16. get.
  • the information on the page layout design includes, for example, information on the template in which the position and size of the profile image of the participating user and the layout message on the page are set in advance.
  • the schedule setting unit 36 sends the schedule information including the application deadline date of the image and the contribution message set by the secretary user, the creation period of the composite image, and the delivery date of the image product via the network 16. Obtained from the terminal device 14 of the secretary user.
  • the deadline for recruiting images and messages is that the participating users can upload (post) images and messages, that is, the image processing system 10 acquires the images and messages from the terminal devices 14 of the participating users. Represents the deadline that can be done.
  • the composite image creation period represents a period for the secretary user to create a composite image using a plurality of images acquired from the terminal devices 14 of a plurality of users, in other words, a time limit for ordering an image product.
  • the delivery date of the image product represents the date on which the image product is delivered.
  • the importance level information acquisition unit 72 receives information on the importance level of the designated person set by the recipient from the terminal device 14 of the recipient of the composite image (first user of the present invention) via the network 16. To get.
  • the designated person is one or more persons designated by the recipient from among a plurality of people shown in the first composite image owned by the recipient.
  • the first composite image is a photo book owned by the recipient.
  • a person other than the recipient may designate one or more persons from a plurality of persons shown in the first composite image.
  • a second composite image different from the first composite image is created using an image showing a designated person in the first image group owned by the recipient, and the second composite image created is created.
  • the composite image is sent to a designated person, for example.
  • Recipient can set the importance of at least one designated person among one or more designated persons.
  • the importance level information acquisition unit 72 sets the importance level of all designated persons to the same minimum level of importance level as an initial setting, but the recipient changes the initial setting and sets the importance level. Can do.
  • the importance of the designated person set by the recipient is set to the importance set by the recipient, and the importance of the designated person not set by the recipient is set to the lowest level importance that is the default setting. It will remain as it is.
  • the importance level information may be set in advance before the recipient receives the first composite image, or after the recipient receives the first composite image, for example, analysis of the first composite image is performed. You may do this based on the results.
  • FIG. 4 is a block diagram of an embodiment showing the configuration of the information management unit 20 shown in FIG.
  • the information management unit 20 shown in the figure includes a setting storage unit 38, an account information storage unit 40, a management screen information transmission unit 42, and an upload prompting unit 44.
  • the setting storage unit 38 stores the image product acquired by the product acquisition unit 30 and the schedule information acquired by the schedule setting unit 36.
  • the account information storage unit 40 acquires the account information of the secretary user set by the secretary user from the terminal device 14 of the secretary user via the network 16. Further, the account information storage unit 40 acquires and stores the participating user's account information set by the participating user from the participating user's terminal device 14 via the network 16.
  • the account information of the secretary user is the email address and secretary password of the secretary user.
  • the account information of the participating user is the name and individual password of the participating user (displayed as “secret word” as shown in FIG. 30 for the participating user).
  • the name of the participating user is used for the managing user to manage the participating user, and the individual password is used for the image processing system 10 to identify the participating user. In the case of this embodiment, it is assumed that the secret word cannot be changed or reissued later.
  • the management screen information sending unit 42 sends a message including a URL (Uniform Resource Locator) for accessing the management screen for managing the image merchandise and the schedule by the managing user via the network 16 to the managing user.
  • a URL Uniform Resource Locator
  • the secretary user can change the secretary user, add a secretary user (for example, add a secondary secretary described later), and the like.
  • the management screen information sending unit 42 sends a message including a URL for accessing the management screen by e-mail, for example, to the email address of the secretary user acquired by the account information storage unit 40.
  • the upload prompting unit 44 sends the invitation created by the secretary user to the terminal device 14 of the participating user via the network 16.
  • the invitation is prompting information that invites the participating user to create a composite image and prompts the participating user to upload an image used in the composite image, evaluation information for each image, a profile image, a message, and the like. .
  • the upload prompting unit 44 sends the invitation to the terminal device 14 of the participating user by, for example, an SNS (Social Networking Service) message or an e-mail.
  • SNS Social Networking Service
  • FIG. 5 is a block diagram of an embodiment showing the configuration of the data acquisition unit 22 shown in FIG.
  • the data acquisition unit 22 shown in the figure includes an image acquisition unit 46, an evaluation information acquisition unit 48, a message acquisition unit 50, a comment acquisition unit 74, a moving image acquisition unit 76, and a first composite image acquisition unit 98.
  • the image acquisition unit 46 is a period between the time when the invitation is sent and the date set by the schedule setting unit 36 until the closing date for the recruitment of images and messages.
  • a plurality of images (image group) transmitted from the terminal device 14 via the network 16 are acquired.
  • the image acquisition part 46 acquires the participating user's profile image set by each participating user.
  • the image acquisition unit 46 After acquiring a plurality of images (image group) transmitted from the terminal device 14 of the participating user via the network 16, the image acquisition unit 46 determines which participating user transmitted the plurality of images. Save it in association with the image. In addition, the image acquisition unit 46 stores the profile image transmitted from the terminal device 14 of the participating user via the network 16 in association with the profile image that is transmitted from which participating user.
  • the evaluation information acquisition unit 48 transmits the evaluation information representing the evaluation for each image given by two or more participating users for a certain period of time via the network 16 to the terminal devices 14 of two or more participating users. Get from.
  • the image evaluation information is information representing the evaluation of each participating user for each image, for example, high evaluation or low evaluation.
  • the message acquisition unit 50 acquires the message message uploaded by each participating user for the same period from the terminal device 14 of each participating user via the network 16.
  • the message acquisition unit 50 saves the participation message transmitted from the participating user's terminal device 14 via the network 16 in association with the additional message.
  • the comment acquisition unit 74 acquires the recipient's comment on the designated person from the recipient's terminal device 14 via the network 16.
  • the comment is placed in the image placement area in combination with the image used in the second composite image, for example.
  • the moving image acquisition unit 76 acquires one or more moving images associated with each of the plurality of images used in the second composite image from the recipient terminal device 14 via the network 16.
  • the content of the moving image is not particularly limited.
  • a moving image in which a designated person is shown, a moving image related to the designated person, or the like can be used.
  • the first composite image acquisition unit 98 acquires the first composite image owned by the recipient from the recipient's terminal device 14 via the network 16.
  • the first composite image acquisition unit 98 acquires the electronic data.
  • the first composite image is carried on an object such as paper like a real photo book
  • the first composite image carried on the object is generated by being scanned by a scanner or the like. Get electronic data.
  • the first composite image is, for example, a composite image created by the image processing system 10 and sent to the recipient, and has identification information that identifies the first composite image from other images.
  • the identification information is not particularly limited as long as each composite image can be uniquely identified. For example, a barcode, an identification number, and the like described on the composite image can be exemplified.
  • a user such as a recipient owns an image means that the user can take the image into a recording medium, analyze it, and use it for image composition.
  • the identification information acquisition unit 78 acquires the identification information included in the first composite image acquired by the first composite image acquisition unit 98.
  • the face image holding unit 100 acquires a plurality of face images including the face images of the plurality of participating users from the terminal devices 14 of the plurality of participating users via the network 16. , Hold a plurality of acquired face images.
  • the face image specifying unit 80 is involved in creating the first composite image from the plurality of face images held in the face image holding unit 100 based on the identification information acquired by the identification information acquisition unit 78. Identify face images of multiple participating users.
  • the first image group holding unit 102 holds the first image group owned by the recipient, transmitted from the recipient terminal device 14 via the network 16.
  • FIG. 6 is a block diagram of an embodiment showing a configuration of the data analysis unit 24 shown in FIG.
  • the data analysis unit 24 shown in the figure includes an image number calculation unit 52, an evaluation number calculation unit 54, a message number calculation unit 56, an image analysis unit 58, an evaluation value calculation unit 60, a person specifying unit 82, A designated person receiving unit 84 and an image specifying unit 86 are provided.
  • the number-of-images calculation unit 52 is acquired by the image acquisition unit 46 after a certain period of time has passed since the invitation was sent by the uploading prompting unit 44, that is, after the application deadline for images and message postings has passed. Calculate the number of images.
  • the evaluation number calculation unit 54 also calculates the number of evaluation information representing the high evaluation and the low evaluation acquired by the evaluation information acquisition unit 48 after the application deadline date for the image and the written message has passed.
  • the message number calculation unit 56 calculates the number of message messages acquired by the message acquisition unit 50 after the application deadline for images and message messages has passed.
  • the image analysis unit 58 analyzes the contents of each image acquired by the image acquisition unit 46.
  • the image analysis unit 58 performs image analysis every time an image is acquired by the image acquisition unit 46.
  • the image analysis unit 58 analyzes the content of the first composite image acquired by the first composite image acquisition unit 98, that is, the content of each image used in the first composite image.
  • the image analysis unit 58 analyzes the brightness and color of the image, the degree of blurring and blurring, and when the image includes a human face, the size of the face, the position of the face, the orientation of the face, Analysis is performed on the skin color of the face, facial expressions such as smiles, eyes, the number of persons included in the image, and the positional relationship of the persons.
  • the evaluation value calculation unit 60 calculates the analysis evaluation value of each image based on the analysis result of each image by the image analysis unit 58. Further, the evaluation value calculation unit 60 adds or subtracts or weights a value to the analysis evaluation value of each image based on the evaluation information representing the high evaluation and the low evaluation for each image acquired by the evaluation information acquisition unit 48. Then, the comprehensive evaluation value of each image is calculated.
  • the evaluation value calculation unit 60 adds a value to the analysis evaluation value of the image based on the number of evaluation information representing the high evaluation calculated by the evaluation number calculation unit 54, and sets the evaluation information representing the low evaluation. Based on the number, the total evaluation value of the image can be calculated by subtracting the value from the analysis evaluation value of the image.
  • the image analysis evaluation value is calculated based on the image analysis result, it becomes a reference for determining whether the image is good or bad.
  • the higher the analysis evaluation value the better the image quality.
  • the overall evaluation value of the image is calculated based on the evaluation information representing the high and low evaluations given by the participating users in addition to the analysis result of the image. Therefore, in addition to the quality of the images, the preference of the participating users It can be said that the higher the comprehensive evaluation value, the better the image quality or the preference of the participating user.
  • the person specifying unit 82 specifies a plurality of persons (specific persons) shown in the first composite image based on the analysis result of the first composite image by the image analysis unit 58. In addition, the person specifying unit 82 selects each of a plurality of users corresponding to each of the plurality of persons shown in the first composite image based on the face images of the plurality of participating users specified by the face image specifying unit 80. Identify.
  • the designated person receiving unit 84 is designated as a designated person from among a plurality of persons shown in the first synthesized image identified by the person identifying unit 82, for example, by a recipient of the first synthesized image. Accepts designation of one or more persons.
  • the designated person accepting unit 84 accepts designation of one or more persons as designated persons from among a plurality of participating users involved in the creation of the first composite image in which the face image is identified by the face image identifying unit 80.
  • the image specifying unit 86 specifies an image (specific image) in which the designated person accepted by the designated person accepting unit 84 is captured from the first image group held in the first image group holding unit 102. To do.
  • FIG. 7 is a block diagram of an embodiment showing the configuration of the composite image creation unit 26 shown in FIG.
  • the composite image creation unit 26 shown in the figure includes a cover creation unit 62, a main part creation unit 64, and a margin creation unit 66.
  • the cover creation unit 62 creates a cover page with a design corresponding to the product information stored in the setting storage unit 38 and the cover page design information acquired by the cover design setting unit 32.
  • the main part creation unit 64 uses the plurality of images acquired by the image acquisition unit 46, and the main page (the cover page and the miscellaneous page) with the number of pages corresponding to the product information stored in the setting storage unit 38. Other pages).
  • the main part creation unit 64 creates a composite image corresponding to the product information stored in the setting storage unit 38, in the case of this embodiment, a main page of a photo book.
  • creating a composite image means creating one image by arranging two or more images.
  • the image used in creating the composite image includes a part image such as a background image, a character image, and a stamp in addition to a photograph.
  • the main part creation unit 64 includes an image dividing unit 88, an image extracting unit 90, an image arranging unit 92, and the like.
  • the image dividing unit 88 divides the plurality of images acquired by the image acquiring unit 46 into a number of groups corresponding to the number of main pages.
  • the image extraction unit 90 extracts, for each group of images, a plurality of compositing target images used in the main page from images included in the group based on the comprehensive evaluation value of the images.
  • the image placement unit 92 determines the size of each synthesis target image extracted by the image extraction unit 90 and the placement position in the main page based on the overall evaluation value of the image for each group of images, and selects the synthesis target image.
  • the main page of the page corresponding to the image group is arranged (automatic layout).
  • the draft creation unit 66 creates a draft page using the participating user's profile image and the draft message acquired by the message acquisition unit 50.
  • the draft creation unit 66 creates a draft page for a design corresponding to the product information saved in the setting saving unit 38 and the draft design information acquired by the draft design setting unit 34.
  • the message creation unit 66 includes a message division unit 94, a message arrangement unit 96, and the like.
  • the message dividing unit 94 divides the written message acquired by the message acquisition unit 50 into a number of groups corresponding to the number of pages of the written page.
  • the message arrangement unit 96 arranges, for each group of overwritten messages, the overwritten message included in the group on the overwritten page of the page corresponding to the overwritten message group.
  • the number of pages of the message page is set according to the number of participating users, the number of message messages, and the like. Further, the number of pages of the main page is set according to the number of pages of the composite image, the number of pages of the handwritten page, and the like. In the case of the present embodiment, the number of participating users is 2 to 36, 2 to 12 messages are arranged on one page, and a 16-page photo book is created.
  • Each part constituting the information setting unit 18, the information management unit 20, the data acquisition unit 22, the data analysis unit 24, and the composite image creation unit 26 is, for example, a control device such as a CPU (Central Processing Unit). This is realized by executing a program loaded in the memory.
  • the data stored by each part is stored in a storage device such as an HDD (Hard Disk Drive), SSD (Solid State Drive), or SD (Secure Digital) memory.
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • SD Secure Digital
  • FIG. 10 is a block diagram of an embodiment showing the configuration of the user terminal device 14 shown in FIG.
  • the user terminal device 14 shown in the figure includes an image display unit 68 and an instruction input unit 70.
  • the image display unit 68 displays various setting screens, selection screens, confirmation screens, input screens, creation screens, and the like, and is configured by a display device such as a liquid crystal display.
  • the instruction input unit 70 acquires various setting instructions, selection instructions, confirmation instructions, input instructions, creation instructions, and the like input by the user, and includes, for example, an input device such as a keyboard and a mouse.
  • the image display unit 68 and the instruction input unit 70 are configured by a device in which a display device and an input device are integrated, such as a touch panel.
  • the terminal device 14 does not need to be one device corresponding to each user involved in the creation of the composite image in a one-to-one manner, as long as it can correspond to each user account in the image processing system 10. There may be a plurality of units corresponding to each user.
  • the server 12 and the terminal device 14 include, for example, a transmission / reception unit that is a communication device that transmits and receives various data between the server 12 and the terminal device 14, a CPU that controls the operation of each part, and the like.
  • the control part etc. which are are provided.
  • the secretary user When creating a composite image, the secretary user first accesses a website for creating a composite image provided by the image processing system 10 via the instruction input unit 70 in the terminal device 14 of the secretary user.
  • the budget setting unit 28 displays a screen for setting the budget of the composite image on the image display unit 68 of the secretary user's terminal device 14. .
  • the secretary user sets the budget for the composite image created by the secretary user via the instruction input unit 70 on the screen for setting the budget for the composite image.
  • a list of composite image budgets is registered in advance by a pull-down menu.
  • the secretary user selects and sets one budget, for example, 3000 to 4000 yen, from the list of composite image budgets registered in the pull-down menu.
  • the budget setting unit 28 acquires information on the budget for the composite image set by the secretary user from the terminal device 14 of the secretary user (step S1).
  • the product acquisition unit 30 presents one or more image products corresponding to the budget information.
  • the merchandise acquisition unit 30 presents five photo books having different sizes and the number of pages as image merchandise.
  • the image display unit 68 of the terminal device 14 of the secretary user displays a screen for setting one image product from one or more image products presented by the product acquisition unit 30. To do.
  • the secretary user selects and sets one image product from the one or more presented image products via the instruction input unit 70 on the screen for setting the image product.
  • a 16-page photo book of A4 size is set.
  • step S2 After the photobook is set as the image product, when the “Next” button is pressed, for example, when the “Next” button is tapped or clicked, the product acquisition unit 30 is set by the managing user. One piece of image merchandise obtained is acquired (step S2).
  • the cover design setting unit 32 displays a screen for setting the cover page design of the photo book on the image display unit 68 of the terminal device 14 of the manager user.
  • the secretary user selects and sets one or more cover page designs via the instruction input unit 70 on the cover page design setting screen.
  • the secretary user selects and sets one cover page design from among the three cover page designs.
  • the secretary user can set, for example, the title of the photobook up to 20 characters written on the cover page and the color of the cover page as information on the design of the cover page of the photo book.
  • the cover design setting unit 32 acquires information on the cover page design set by the secretary user from the terminal device 14 of the secretary user. (Step S3).
  • the draft design setting unit 34 displays a screen for setting the design of the draft page of the photo book on the image display unit 68 of the terminal device 14 of the manager user.
  • the secretary user selects and sets one or more draft designs via the instruction input unit 70 on the screen for setting the draft page design.
  • one of the nine designs is selected and set.
  • the layout design setting unit 34 acquires information on the layout page design set by the secretary user from the terminal device 14 of the secretary user. (Step S4).
  • the schedule setting unit 36 displays a screen for setting an application and deadline date for the message to be posted on the image display unit 68 of the secretary user's terminal device 14.
  • the secretary user sets the application deadline date for the image and the message message via the instruction input unit 70 on the screen for setting the application deadline date for the image and the message message.
  • a list of dates within a certain period from the current date is registered in advance by a pull-down menu.
  • the secretary user selects and sets one date, for example, December 2, as the application deadline date from the list of dates registered in the pull-down menu.
  • the schedule setting unit 36 displays the information of the image and message message application deadline date set by the secretary user. Obtained from the user terminal device 14 (step S5).
  • the schedule setting unit 36 displays a screen for setting a composite image creation period on the image display unit 68 of the secretary user's terminal device 14.
  • the secretary user sets the composite image creation period via the instruction input unit 70 on the screen for setting the composite image creation period.
  • a list of dates within 30 days from the deadline for the period for recruiting images and written messages is registered in advance by a pull-down menu.
  • the organizer user selects one date, for example, December 4 from the list of dates registered in the pull-down menu, and sets December 2 to 4 as the creation period.
  • the schedule setting unit 36 receives information on the composite image creation period set by the secretary user from the terminal device 14 of the secretary user. Obtain (step S5).
  • the schedule setting unit 36 displays a screen for setting the delivery date of the image product on the image display unit 68 of the terminal device 14 of the manager user.
  • the delivery date of the image product is automatically set by the schedule setting unit 36 to a date after a certain period from the deadline date of the composite image creation period.
  • the setting is automatically set on December 20, 16 days after December 4, which is the last day of the composite image creation period.
  • the secretary user can change the delivery date of the image product via the instruction input unit 70 on the screen for setting the delivery date of the image product.
  • the delivery date of the image merchandise can be set to a date before December 20, for example, by paying an additional fee and specifying express finishing.
  • the schedule setting unit 36 acquires the delivery date information of the image product (step S5).
  • the setting storage unit 38 displays a screen for confirming information on the image merchandise and the schedule on the image display unit 68 of the terminal device 14 of the manager user.
  • the secretary user confirms the image merchandise and schedule information on the screen for confirming the image merchandise and schedule information, and if the settings are acceptable, press the “Save / Login” button to proceed to the next screen. To change the setting, press the “ ⁇ ” button to return to the previous screen.
  • the setting storage unit 38 displays a screen for inputting account information for the secretary user to log in to the image processing system 10.
  • the secretary user inputs the email address and secretary password of the secretary user via the instruction input unit 70 as account information for logging in to the image processing system 10. If the secretary user has already registered as a member in the image processing system 10, the “login” button is pressed. If the secretary password is forgotten after member registration, a process for recovering the secretary password is performed by pressing the “forget password” button.
  • the account information storage unit 40 compares the account information already stored with the account information input by the managing user. If the account information storage unit 40 compares the two as a result of the comparison, the secretary user can log in to the image processing system 10.
  • the image processing system 10 performs a process for newly registering a member by pressing a “new member registration” button.
  • the account information storage unit 40 acquires the e-mail address and secretary password input by the secretary user, and stores them as account information of the secretary user.
  • the secretary user's terminal device 14 can log in to the image processing system 10 after completing the membership registration.
  • the setting storage unit 38 stores the image product acquired by the product acquisition unit 30 and the schedule information acquired by the schedule setting unit 36.
  • the setting storage unit 38 displays a screen indicating that the log-in of the secretary user and the storage of the image merchandise information and the schedule information has been completed. This is displayed on the part 68.
  • the management screen information sending unit 42 sends a message including a URL for accessing the management screen.
  • This message also includes a notification indicating that the image merchandise and schedule information have been saved.
  • the management screen information sending unit 42 inputs the email addresses of participating users other than the managing user as well as the managing user via the instruction input unit 70, thereby participating users other than the managing user, For example, a message including a URL for accessing the management screen can be sent to the e-mail address of the deputy secretary user acting on behalf of the secretary user.
  • the upload prompting unit 44 displays a screen for creating an invitation to be sent to the terminal device 14 of the participating user as a terminal of the managing user.
  • the image is displayed on the image display unit 68 of the device 14.
  • the secretary user inputs a message to be included in the invitation via the instruction input unit 70 within a certain number of characters on the screen for creating an invitation within 150 characters in the example of FIG.
  • an initial message “Let's give a photo book with everyone's photos and messages!” Is automatically input.
  • the secretary user may use the initial message as it is, or may input another message.
  • the upload prompting unit 44 acquires message information to be included in the invitation and creates an invitation (step S6).
  • the upload prompting unit 44 displays a screen for confirming the contents of the invitation on the image display unit 68 of the terminal device 14 of the manager user.
  • the secretary user confirms the contents of the invitation on the screen for confirming the contents of the invitation, and if the contents are acceptable, the button for "Invitation Sending Screen” is pushed to the next screen, and the contents If you want to change, press the “ ⁇ ” button to return to the previous screen.
  • the upload prompting unit 44 displays a screen for sending an invitation to the terminal device 14 of the participating user. Is displayed on the image display unit 68.
  • the secretary user selects a means for sending the invitation via the instruction input unit 70 on the screen for sending the invitation.
  • the secretary user selects an SNS message or e-mail as means for sending an invitation.
  • the invitation is sent to the participating user's SNS account as an SNS message when the “SNS” button is pressed, and sent to the participating user's email address by e-mail when the “mail” button is pressed. Is done.
  • the secretary user may send invitations to all participating users involved in the creation of the composite image, or may send invitations only to some participating users.
  • SNS messages or e-mails include invitations to access images used for composite images, image evaluation information, message postings, etc., and a common password.
  • SNS messages or e-mails include invitations to access images used for composite images, image evaluation information, message postings, etc., and a common password.
  • “5865” is included.
  • the upload prompting unit 44 sends an invitation to the terminal device 14 of the participating user (step S7).
  • the participating user receives the invitation at the terminal device 14 of the participating user and accesses the website indicated by the invitation URL via the instruction input unit 70.
  • the upload prompting unit 44 displays a screen representing the invitation received by the participating user on the image display unit of the terminal device 14 of the participating user. 68 (step S8).
  • Participating users browse the screen showing the invitation, and the request from the managing user to the participating users is to upload an image to be a photo book and a message to be posted, and the application deadline is December 2 To understand the.
  • the account information storage unit 40 displays an image used in the composite image, A screen for inputting a common password for accessing the screen on which the participating user uploads the evaluation information of the image, the written message, and the like is displayed on the image display unit 68 of the terminal device 14 of the participating user.
  • the participating user inputs the common password included in the received invitation, “5865” in the example of FIG. 28, via the instruction input unit 70 on the screen for inputting the common password.
  • the account information storage unit 40 displays a screen for registering a new participating user on the terminal device 14 of the participating user.
  • the image is displayed on the image display unit 68.
  • the name of a user who has already been registered as a participating user is displayed on the screen for registering a new participating user. It is not essential to display the names of registered participating users. However, by displaying the names of registered participating users, if a user newly registers as a participating user, if the name that he / she knows is in the registered participating user's name, he / she can register with confidence. It can be performed.
  • the participating user presses the “new registration” button if he / she has not yet registered as a participating user in the image processing system 10, and presses the “content modification” button if he / she has already been registered as a participating user.
  • the account information storage unit 40 registers the name and individual password (displayed as “secret password” in FIG. 30) to be registered as a participating user. A screen for this is displayed on the image display unit 68 of the terminal device 14 of the participating user.
  • the participating user inputs a real name or a nickname as a name via the instruction input unit 70, and inputs an arbitrary character string as a secret word.
  • the name of the participating user and the secret word are the account information of the participating user. As shown in FIG. 29, the participating user has already uploaded by pressing the “modify content” button on the screen for registering a new participating user, and inputting the registered name and secret password. It is possible to correct the image, the image evaluation information, the written message, and the like.
  • the account information storage unit 40 acquires the name of the participating user and the secret password and saves it as the account information of the participating user. To do.
  • the image acquisition unit 46 displays a screen for selecting an image to be uploaded by the participating user on the image display unit 68 of the terminal device 14 of the participating user.
  • Participating users can select an image to upload by pressing the “add image” button on the screen for selecting an image to upload.
  • the number of images selected by the participating users is displayed on the screen for selecting an image to be uploaded.
  • the image acquisition unit 46 acquires an image uploaded from the participating user, that is, an image posted from the terminal device 14 of the participating user. (Step S9). As described above, the image acquisition unit 46 acquires a plurality of images transmitted from the terminal devices 14 of two or more participating users. Each time an image is acquired by the image acquisition unit 46, the image analysis unit 58 analyzes the image, and the evaluation value calculation unit 60 calculates an analysis evaluation value of the image based on the analysis result of the image (step). S10).
  • the evaluation information acquisition unit 48 displays a screen for evaluating each of a plurality of images transmitted from the terminal devices 14 of two or more participating users.
  • the image is displayed on the image display unit 68.
  • Participating users can give evaluation information indicating high evaluation or low evaluation to each image via the instruction input unit 70 on a screen for evaluating each image. For example, a participating user browses each image, gives evaluation information indicating high evaluation by pressing a “like” button to an image he / she likes, and gives “ Evaluation information indicating low evaluation can be given by pressing the “Imaichi” button.
  • the evaluation information acquisition unit 48 gives the high evaluation and low evaluation given to each image. Evaluation information representing the evaluation is acquired from the terminal device 14 of the participating user (step S11).
  • the message acquisition unit 50 displays a screen for notifying that the grouped page enters the end of the photo book as a participating user. Displayed on the image display unit 68 of the terminal device 14.
  • Participating users browse and confirm the screen that informs them that the message page will be at the end of the photo book.
  • the message acquisition unit 50 displays a screen for setting the participating user's profile image to be used in the postscript page as a terminal device of the participating user. 14 image display units 68.
  • the participating user selects and sets an image to be used as the profile image from the images owned by the participating user in the terminal device 14 of the participating user via the instruction input unit 70. be able to.
  • the participating user can delete the already set profile image by pressing the “delete” button and set the profile image again.
  • the image acquisition unit 46 acquires the profile image set by the participating user from the terminal device 14 of the participating user (step S12). .
  • the message acquisition unit 50 displays a screen for inputting a message to the image display unit 68 of the terminal device 14 of the participating user.
  • Participating users input a message to be included in the writing page within 150 characters via the instruction input unit 70 on the screen for inputting the writing message.
  • an initial message “Congratulations on marriage ... Please be happy” is automatically input.
  • the participating user may use the initial message as it is or may input another message.
  • the participating user can view the message that has already been uploaded by the other participating users by pressing the “view other people's message” button on the screen for inputting the message.
  • the message acquisition unit 50 displays a screen for confirming the message message input by the participating user.
  • the image is displayed on the image display unit 68 of the user terminal device 14.
  • Participating users browse and confirm the message in the message confirmation screen, and if that message is acceptable, press the “Post” button to go to the next screen. If you want to change the message , Press the “ ⁇ ” button to return to the previous screen.
  • the message acquisition unit 50 acquires the message posted by the participating user, that is, the message uploaded from the terminal device 14 of the participating user (step S13).
  • each participating user with respect to the recipient of the photo book includes not only the main page of the photo book but also a miscellaneous page. You can convey your feelings as a message.
  • a screen indicating that the posting of the message has been completed is displayed on the image display unit 68 of the terminal device 14 of the participating user.
  • the image number calculation unit 52 calculates the number of images acquired by the image acquisition unit 46 (step S14). Further, the evaluation number calculation unit 54 calculates the number of evaluation information indicating high evaluation and low evaluation acquired by the evaluation information acquisition unit 48 (step S15), and the message number calculation unit 56 is acquired by the message acquisition unit 50. The number of posted messages is calculated (step S16).
  • the evaluation value calculation unit 60 adds or subtracts a value to or from an analysis evaluation value of each image based on evaluation information indicating high evaluation and low evaluation for each image, for example, the number of evaluation information, The overall evaluation value of the image is calculated (step S17).
  • every time an image is acquired it is not essential to analyze the image and calculate the analysis evaluation value.
  • every time an image is acquired by analyzing the image and calculating its analysis evaluation value, after acquiring all the images, the image is analyzed and the analysis evaluation value is calculated.
  • the overall evaluation value of the image can be calculated in a short time, and as a result, the time required for creating the composite image can be shortened.
  • the secretary user instructs the composite image creation unit 26 to create a composite image via the instruction input unit 70 in the terminal device 14 of the secretary user.
  • the cover creation unit 62 has a design corresponding to the design information of the cover page, the title set by the secretary user is described, and the secretary user A cover page of the color set by is created (step S18).
  • the main part creation unit 64 creates a main part page of the photobook using at least one of the plurality of images acquired by the image acquisition unit 46 (step S19).
  • the image dividing unit 88 of the main creation unit 64 divides the plurality of images acquired by the image acquisition unit 46 into a plurality of groups corresponding to the number of pages of the main page.
  • the image extraction unit 90 uses, for each group of images, in the main page from the images included in the group, for example, in order from the image having the highest comprehensive evaluation value, based on the comprehensive evaluation value of the image. A plurality of compositing target images are extracted.
  • the image placement unit 92 determines the size of each compositing target image and the placement position in the main page based on the overall evaluation value of the image for each group of images, and the compositing target image has a corresponding main part. Placed on the page. For example, among the plurality of compositing target images arranged on the main page, the compositing target image having the highest overall evaluation value is arranged at the center position of the page with a size larger than the other compositing target images.
  • the draft creation unit 66 creates a draft page with a design corresponding to the information on the design of the draft page using the profile images of the participating users and the draft message (step S20).
  • the message division unit 94 of the message creation unit 66 divides the message by the message acquisition unit 50 into a number of groups corresponding to the number of pages to be edited.
  • the message placement unit 96 creates a page for each group of overwritten messages by placing it on the overwritten page of the page corresponding to the group of overwritten messages. For example, the message arrangement unit 96 arranges the grouped message included in the group and the corresponding participating user's profile image. On each page, for example, the message placement unit 96 sequentially places the handwritten messages in the order in which the handwritten messages are uploaded.
  • the cover creation unit 62 automatically creates a cover page corresponding to the cover page design information.
  • the main part creation unit 64 automatically creates a main part page using a plurality of images acquired from the terminal devices 14 of two or more participating users.
  • the group creation unit 66 automatically creates a group page with a design corresponding to the information about the design of the group page using the profile images of the participating users and the group message.
  • the composite image creation unit 26 automatically creates a photo book including a cover page corresponding to the cover page design information, a main page, and a page layout corresponding to the page layout design information.
  • the image processing system 10 it is possible to create a composite image such as a photo book including not only the main part page but also a page for writing.
  • a composite image such as a photo book including not only the main part page but also a page for writing.
  • the size of each image and the arrangement position on the main page are determined based on the overall evaluation value of the image, so that not only the quality of the image but also a plurality of participating users It is possible to create a composite image reflecting the preferences of the user.
  • the secretary user browses each page of the photo book including the cover page, the main part page, and the handwritten page automatically created on the terminal unit 14 of the secretary user.
  • the secretary user may adopt the automatically created photobook as it is, or edit the contents of each page, for example, the image used on each page, the size of the image, the position of the image and the overwriting message, etc. Also good.
  • the secretary user can add a comment, add a stamp image, change the background type and color of each page, and the like.
  • the secretary user completes the editing of the photo book by December 4th in the case of the composite image creation period set by the schedule setting unit 36, and the image product with the contents of the created photo book is completed. Is ordered (step S21).
  • the image merchandise ordered by the secretary user includes at least one of a paper photobook and electronic data photobook.
  • a photo book of the ordered image product is created and sent to the delivery destination by the delivery date of the image product set by the schedule setting unit 36, in this embodiment, by December 20th. (Step S22).
  • a paper photobook for example, a paper photobook is sent to a delivery destination.
  • an electronic data photobook for example, an electronic data photobook or for downloading electronic data.
  • a URL etc. is sent to the mail address of the delivery destination.
  • the image processing system 10 can create a composite image such as a photobook including a page by using a plurality of images and a message from the plurality of participating users.
  • a photo book is created using images to be combined extracted from a plurality of images owned by a plurality of participating users, and when the created photo book is sent to a delivery destination, The recipient of the book uses the image processing system 10 to use a composite image that is different from the received photobook, using an image of a person in the photobook from the first image group owned by the recipient. Can be created.
  • the recipient creates a second composite image such as a postcard with an image based on the received first composite image such as a photo book. Further, even after the recipient receives the first composite image, it is assumed that the image processing system 10 holds various types of information regarding the first composite image.
  • the first composite image acquisition unit 98 displays a screen informing that the postcard with the image is created as the second composite image.
  • the image is displayed on the image display unit 68 of the terminal device 14.
  • the recipient presses the “Next” button and designates the photobook received by the recipient as the first composite image via the instruction input unit 70. .
  • the first composite image acquisition unit 98 subsequently acquires the first composite image owned by the recipient from the terminal device 14 of the recipient (step S23).
  • the image analysis unit 58 analyzes the content of the first composite image, that is, the content of each image used in the first composite image (step S24).
  • the person specifying unit 82 specifies a plurality of persons shown in the first composite image based on the analysis result of the first composite image (step S25).
  • the designated person receiving unit 84 displays a screen for designating one or more persons as designated persons from among a plurality of persons shown in the first composite image.
  • the image is displayed on the image display unit 68 of the device 14.
  • the recipient designates a person who wants to use the second composite image from among a plurality of persons shown in the first composite image via the instruction input unit 70 on the screen for designating the person, that is, the second composite image.
  • One or more persons (designated persons) appearing in an image used for creation are designated.
  • the recipient checks the face image of the person he wants to use in the second composite image from the plurality of persons shown in the first composite image via the instruction input unit 70 on the screen for designating the person.
  • the recipients are two persons A and B from a plurality of persons including A, B, C, D,. Designated as a designated person.
  • the recipient may specify the face image of another person who is not displayed by swiping up and down the area where the face image of the person is displayed, for example. Can do. Further, by pressing the “specify all” button, all persons appearing in the first composite image can be specified. Also, by pressing the “release all” button, it is possible to cancel the designation of all persons and start over.
  • the designated person accepting unit 84 accepts designation of one or more persons designated by the recipient (step S26).
  • the first image group holding unit 102 When the designation of the person is accepted, the first image group holding unit 102 subsequently displays a screen for designating the first image group owned by the recipient as shown in FIG. Is displayed on the image display unit 68.
  • a field for designating the folder in which the first image group is stored a field for designating the shooting date of the first image group
  • the first image group A field for specifying the shooting location is displayed.
  • the recipient designates one or more fields to be used for designating the first image group from among the above three fields by setting the check box provided in each field to a check state.
  • the number of fields specifying the first image group may be one or more, and there is no upper limit.
  • an AND (logical product) search is performed for images that match the specified conditions in the two or more check boxes specified by the recipient from the image group owned by the recipient.
  • an OR (logical sum) search may be performed. Whether the image is AND-searched or OR-searched may be set in advance or may be specified by the recipient.
  • the first image group holding unit 102 holds the first image group designated by the recipient.
  • the image display unit 68 of the recipient's terminal device 14 automatically selects an image from the first image group designated by the recipient by the image specifying unit 86 and selects a postcard. Display a screen that informs you to create.
  • the image analysis unit 58 analyzes the contents of each image included in the first composite image group. Subsequently, the person specifying unit 82 specifies a plurality of persons in each image included in the first composite image group based on the analysis result of each image included in the first composite image group. Subsequently, the image specifying unit 86 specifies an image in which the designated person is captured from the first image group held in the first image group holding unit 102 (step S27).
  • the composite image creation unit 26 creates a second composite image using an image in which the designated person is shown (step S28).
  • the composite image creation unit 26 displays a screen for confirming the created second composite image as an image of the recipient terminal device 14. It is displayed on the display unit 68.
  • candidates for the second composite image to be sent to Mr. A are displayed.
  • the person on the left in the candidate for the second composite image to be sent to Mr. A is Mr. A, and the two persons on the right are recipients of the photo book.
  • the recipient can display another second composite image candidate to be sent to Mr. A by pressing the “change image” button, and can select another second composite image to be sent to Mr. A. .
  • a text message can be synthesized.
  • the text message may display a fixed sentence selected by the recipient from a plurality of fixed sentences, but may allow the recipient to freely create a text message.
  • the second composite image to be sent to the next person can be displayed.
  • the composite image creation unit 26 displays a screen for inputting the address of the person to whom the second composite image is sent on the image display unit 68 of the recipient's terminal device 14.
  • the composite image creation unit 26 displays fields for inputting the postal codes and addresses of Mr. A and Mr. B on the screen for inputting addresses.
  • the recipient inputs the postal codes and addresses of Mr. A and Mr. B via the instruction input unit 70.
  • the recipient In the screen for entering an address, for example, the recipient displays a field for entering the address of another person who is not displayed by swiping up and down the area for entering the address. You can enter a zip code and address.
  • the “Use existing address book (specify file)” button specify the address book file owned by the recipient, and also specify the person stored in the specified address book By doing so, it is possible to automatically input the address of the designated person. For example, if the recipient of a photo book is a bride and groom, an address book created to send a wedding invitation can be used.
  • the image processing system 10 sends a postcard to both A and B.
  • a plurality of persons appearing in the first composite image created using a plurality of images owned by a plurality of users are identified, and the plurality of identified persons are As a designated person, the designation of one or more persons is accepted, an image showing the designated person is identified from the first image group owned by the recipient, and the identified image is used as the first composite image.
  • Another second composite image can be created.
  • the plurality of persons attending the wedding reception include a plurality of participating users involved in the creation of the wedding reception photobook.
  • the bride and groom who are the recipients of the photo book use the image processing system 10 and thank them for the images of each participating user who attended the wedding reception from among a plurality of images owned by the bride and groom. It is possible to create a postcard with an image showing each participating user as the second composite image, and send the created postcard or the like to each participating user.
  • a plurality of participating users involved in the creation of the first composite image can be specified as the designated person.
  • the face image holding unit 100 holds a plurality of face images including the face images of a plurality of participating users acquired from the terminal devices 14 of the plurality of participating users when creating the first composite image. Shall.
  • the recipient captures the barcode included in the first composite image by, for example, an image capturing unit of a mobile terminal such as a smartphone owned by the recipient.
  • the recipient terminal device 14 does not have to be a portable terminal.
  • the barcode included in the first composite image from the terminal device 14 such as a desktop PC or a notebook PC by an image capturing unit such as a USB camera with a cable. Can also be taken.
  • the identification information acquisition unit 78 acquires the identification information included in the first composite image from the photographed barcode image.
  • the recipient may input the identification number described in the first composite image instead of photographing the barcode.
  • the identification information acquisition unit 78 acquires the identification number input by the recipient as identification information.
  • the face image specifying unit 80 is involved in creating the first composite image from the plurality of face images held in the face image holding unit 100 based on the identification information acquired by the identification information acquisition unit 78. Identify face images of multiple participating users.
  • the person specifying unit 82 each of the plurality of participating users corresponding to each of the plurality of persons shown in the first composite image. Is identified.
  • the designated person receiving unit 84 specifies a participating user corresponding to one or more designated persons from among a plurality of participating users involved in the creation of the first composite image. Thereafter, the designated person operates as the specified participating user as described above.
  • the person specifying unit 82 is not only based on the analysis result of the first composite image, but also based on the face images of a plurality of participating users related to the creation of the first composite image, Participating users can be specified and a second composite image can be created.
  • the recipient can set the importance of the designated person.
  • the recipient receives the important information of each designated person via the instruction input unit 70. Set the degree.
  • the importance level information acquisition unit 72 acquires the importance level information of the designated person set by the recipient from the recipient's terminal device 14.
  • the composite image creation unit 26 creates a second composite image based on the importance level information by preferentially using an image in which the designated person having a higher importance than the designated person having a lower importance is captured.
  • the image extraction unit 90 sequentially extracts, from the plurality of images in which the designated person is captured, from the image in which the designated person having the highest importance is captured as the synthesis target image. Other operations are as described above.
  • the second composite image can be created by preferentially using the existing image.
  • the recipient can include a comment for the designated person in the second composite image.
  • the comment acquisition unit 74 displays a screen for inputting a comment for the designated person on the image display unit 68 of the recipient's terminal device 14.
  • the recipient inputs a comment for each designated person via the instruction input unit 70 on the screen for inputting a comment.
  • the comment acquisition unit 74 acquires a comment uploaded from the recipient's terminal device 14, that is, a recipient's comment on the designated person.
  • the composite image creation unit 26 creates a second composite image using the comments acquired by the comment acquisition unit 74 in addition to the plurality of images in which the designated person is shown.
  • the image placement unit 92 places a comment for the designated person around a plurality of images in which the designated person is shown in the image placement area of the main page. Other operations are as described above.
  • the recipient can use a combination of images (still images) and moving images.
  • the moving image acquisition unit 76 displays a screen for designating one or more moving images on the image display unit 68 of the recipient's terminal device 14, for example.
  • the recipient designates each of one or more moving images associated with each of the plurality of images used in the second composite image via the instruction input unit 70 on the screen for designating the moving image.
  • the moving image acquisition unit 76 acquires each of one or more moving images associated with each of the moving images uploaded from the recipient's terminal device 14, that is, the plurality of images used in the second composite image. get.
  • the composite image creation unit 26 creates a second composite image using the first image group that includes one or more images associated with each of the one or more moving images and includes the designated person. .
  • the designated person who is the recipient of the second synthesized image selects the first image associated with the first moving image of one or more moving images in the first image group used in the second synthesized image. Then, the image is taken (captured) by the image photographing unit of the portable terminal of the designated person. As a result, the first image taken by the designated person is displayed on the image display unit 68 of the terminal apparatus 14 of the designated person. In this case, by using AR (Augmented Reality) technology, the first moving image is reproduced on the image display unit 68 of the portable terminal of the designated person.
  • AR Augmented Reality
  • the first moving image may be reproduced on the entire screen of the image display unit 68 of the designated person's portable terminal, or the first image displayed on the image display unit 68 of the designated person's portable terminal may be reproduced. You may reproduce
  • the recipient of the second composite image can reproduce and view the moving image associated with the image used in the second composite image.
  • the second composite image is created by combining the viewpoints such as the identification of the participating user based on the face image, the setting of the importance level of the designated person, the use of a comment for the designated person, the use of a combination of an image and a moving image May be.
  • a still image extracted from a moving image may be used as an image associated with the moving image.
  • the image analysis unit 58 analyzes the contents of each image included in the plurality of still images constituting the moving image.
  • the person specifying unit 82 specifies a plurality of persons shown in the plurality of still images constituting the moving image based on the analysis result of the plurality of still images constituting the moving image.
  • the image specifying unit 86 specifies an image in which the designated person is captured from a plurality of still images constituting the moving image, and sets it as an image associated with the moving image.
  • a plurality of users involved in the creation of the composite image may jointly create a composite image, or at least one user among the plurality of users A composite image may be created.
  • the server 12 includes the information setting unit 18, the information management unit 20, the data acquisition unit 22, the data analysis unit 24, and the composite image creation unit 26.
  • the terminal device 14 may be provided.
  • each component included in the image processing system 10 may be configured by dedicated hardware, or each component may be configured by a programmed computer.
  • the method of the present invention can be implemented, for example, by a program for causing a computer to execute each step. It is also possible to provide a computer-readable recording medium in which this program is recorded.

Abstract

The present invention provides an image processing system, an image processing method, a program and a recording medium which make it possible, on the basis of a composite image created using a plurality of images owned by a plurality of users, to create another composite image using images of a plurality of persons in the composite image. In the image processing system, image processing method, program and recording medium of the present invention, a person identifying unit identifies a plurality of persons appearing in a first composite image owned by a first user. A designated person acceptance unit accepts designation of one or more persons as designated persons, from among the plurality of persons appearing in the first composite image. An image identifying unit identifies one or more images in which the designated persons appear, from among a first image group owned by the first user. A composite image creation unit creates a second composite image using the one or more images in which the one or more designated persons appear.

Description

画像処理システム、画像処理方法、プログラムおよび記録媒体Image processing system, image processing method, program, and recording medium
 本発明は、複数のユーザの端末装置からネットワークを介して取得された複数の画像を用いて、フォトブック等の合成画像を作成する画像処理システム、画像処理方法、プログラムおよび記録媒体に関する。 The present invention relates to an image processing system, an image processing method, a program, and a recording medium that create a composite image such as a photobook using a plurality of images acquired from a plurality of user terminal devices via a network.
 従来より、ユーザが所有する複数の画像(画像データ)を、インターネットを経由してサービス提供業者に送信し、送信した複数の画像を用いてユーザが希望するレイアウトの写真集(フォトブック)を作成するサービスがある。 Conventionally, multiple images (image data) owned by the user are sent to the service provider via the Internet, and a photo book (photo book) of the layout desired by the user is created using the transmitted multiple images. There is a service to do.
 フォトブックは、例えば、画像の連続性や関連性を考慮して、撮影時刻等に基づいて複数の画像を複数のグループに分類し、各々のグループに含まれる画像を各々対応するページに自動配置(自動レイアウト)することによって作成される。 Photobooks, for example, consider the continuity and relevance of images, classify multiple images into multiple groups based on shooting time, etc., and automatically place images contained in each group on their corresponding pages Created by (automatic layout).
 近年では、一人のユーザが所有する複数の画像だけを用いてフォトブックを作成するだけでなく、複数のユーザが所有する複数の画像を用いて1つのフォトブックを作成するもの(特許文献1および2参照)、および、複数のユーザから寄せ書き用のメッセージを取得し、複数のユーザから取得した寄せ書きメッセージを用いて寄せ書きを作成するもの(特許文献3および4参照)等が知られている。
 また、実際に、複数のユーザが所有する複数の画像と、当該複数のユーザが寄せたメッセージなどを用いて1つのフォトブックを作成するサービスも行われている(非特許文献1~3参照)。
In recent years, not only a photobook is created using only a plurality of images owned by a single user, but also a photobook is created using a plurality of images owned by a plurality of users (Patent Document 1 and 2), and a message for acquiring a message for writing from a plurality of users and creating a message using a message for writing written from a plurality of users (see Patent Documents 3 and 4).
In fact, there is also a service for creating one photobook using a plurality of images owned by a plurality of users and messages sent by the plurality of users (see Non-Patent Documents 1 to 3). .
特開2008-257308号公報JP 2008-257308 A 特開2015-069431号公報JP2015-066941A 特開2001-297051号公報JP 2001-297051 A 特開2015-133000号公報JP 2015-133000 A
 例えば、複数のユーザが結婚披露宴において撮影した複数の画像を用いてフォトブックを作成する場合、新郎新婦を主人公としたフォトブックが作成され、新郎新婦に送付される。この場合、フォトブックの受取人である新郎新婦は、フォトブックを受け取ったお礼として、新郎新婦が所有する複数の画像の中から、結婚披露宴に参列した各々の人物が写っている画像を用いて合成画像を作成し、作成した合成画像を、その人物に送付したいという要求がある。特に、新郎新婦がカメラマンに撮影を依頼したような場合、新郎新婦は、カメラマンから参列した各々の人物が画質良く写っている画像を多数受け取っていると考えられる。この場合、受け取った多数の画像を用いて、新郎新婦が各々の人物毎に合成画像を作成し送付することは、従来の技術からは容易に行うことができない。 For example, when creating a photo book using a plurality of images taken by a plurality of users at a wedding reception, a photo book having the bride and groom as the main character is created and sent to the bride and groom. In this case, the bride and groom who are the recipients of the photo book, as a thank you for receiving the photo book, use an image that shows each person who attended the wedding reception from among multiple images owned by the bride and groom. There is a request to create a composite image and send the created composite image to the person. In particular, when the bride and groom request a photographer to take a picture, it is considered that the bride and groom have received a large number of images in which each person attending from the photographer is captured with good image quality. In this case, it is not easy from the prior art to create and send a composite image for each person using the received many images.
 本発明の目的は、合成画像に基づいて、合成画像に写っている人物の画像を用いて別の合成画像を作成することができる画像処理システム、画像処理方法、プログラムおよび記録媒体を提供することにある。 An object of the present invention is to provide an image processing system, an image processing method, a program, and a recording medium that can create another composite image using an image of a person shown in the composite image based on the composite image. It is in.
 上記目的を達成するために、本発明は、第1のユーザが所有する第1合成画像を取得する第1合成画像取得部と、
 第1合成画像の内容を解析する画像解析部と、
 第1合成画像の解析結果に基づいて、第1合成画像に写っている複数の人物を特定する人物特定部と、
 第1合成画像に写っている複数の人物の中から、指定人物として、1以上の人物の指定を受け付ける指定人物受付部と、
 第1のユーザが所有する第1画像群を保持する第1画像群保持部と、
 第1画像群の中から、指定人物が写っている画像を特定する画像特定部と、
 指定人物が写っている画像を用いて第2合成画像を作成する合成画像作成部とを備える画像処理システムを提供する。
In order to achieve the above object, the present invention provides a first composite image acquisition unit that acquires a first composite image owned by a first user;
An image analysis unit for analyzing the content of the first composite image;
Based on the analysis result of the first composite image, a person specifying unit for specifying a plurality of persons in the first composite image;
A designated person accepting unit that accepts designation of one or more persons as designated persons from a plurality of persons reflected in the first composite image;
A first image group holding unit for holding a first image group owned by the first user;
An image specifying unit for specifying an image in which the designated person is captured from the first image group;
An image processing system is provided that includes a composite image creation unit that creates a second composite image using an image showing a designated person.
 ここで、第1合成画像は、第1合成画像を他の画像から識別する識別情報を有し、
 第1合成画像が有する識別情報を取得する識別情報取得部と、
 第1合成画像を作成する場合に、複数のユーザの端末装置からネットワークを介して複数のユーザの顔画像を含む複数の顔画像を取得し、取得した複数の顔画像を保持する顔画像保持部と、
 識別情報取得部によって取得された識別情報に基づいて、顔画像保持部に保持された複数の顔画像の中から、複数のユーザの顔画像を特定する顔画像特定部とを備え、
 人物特定部は、顔画像特定部によって特定された複数のユーザの顔画像に基づいて、第1合成画像に写っている複数の人物の各々に対応する複数のユーザの各々を特定し、
 指定人物受付部は、人物特定部によって特定された複数のユーザの中から、1以上の指定人物に対応するユーザを特定することが好ましい。
Here, the first composite image has identification information for identifying the first composite image from other images,
An identification information acquisition unit that acquires identification information included in the first composite image;
When creating a first composite image, a face image holding unit that acquires a plurality of face images including face images of a plurality of users from a terminal device of a plurality of users via a network, and holds the acquired plurality of face images When,
A face image specifying unit that specifies face images of a plurality of users from among the plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquiring unit;
The person specifying unit specifies each of a plurality of users corresponding to each of the plurality of persons shown in the first composite image based on the face images of the plurality of users specified by the face image specifying unit,
It is preferable that the designated person receiving unit identifies a user corresponding to one or more designated persons from among a plurality of users identified by the person identifying unit.
 また、本発明は、第1のユーザが所有する第1合成画像を他の画像から識別する識別情報を取得する識別情報取得部と、
 第1合成画像を作成する場合に、複数のユーザの端末装置からネットワークを介して複数のユーザの顔画像を含む複数の顔画像を取得し、取得した複数の顔画像を保持する顔画像保持部と、
 識別情報取得部によって取得された識別情報に基づいて、顔画像保持部に保持された複数の顔画像の中から、複数のユーザの顔画像を特定する顔画像特定部と、
 第1のユーザが所有する第1画像群を保持する第1画像群保持部と、
 顔画像特定部によって特定された複数のユーザの中から、指定人物として、1以上の人物の指定を受け付ける指定人物受付部と、
 第1画像群の中から、指定人物が写っている画像を特定する画像特定部と、
 指定人物が写っている画像を用いて第2合成画像を作成する合成画像作成部とを備える画像処理システムを提供する。
The present invention also provides an identification information acquisition unit that acquires identification information for identifying the first composite image owned by the first user from other images;
When creating a first composite image, a face image holding unit that acquires a plurality of face images including face images of a plurality of users from a terminal device of a plurality of users via a network, and holds the acquired plurality of face images When,
A face image specifying unit that specifies face images of a plurality of users from a plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquisition unit;
A first image group holding unit for holding a first image group owned by the first user;
A designated person receiving unit that receives designation of one or more persons as a designated person from among a plurality of users identified by the face image identifying unit;
An image specifying unit for specifying an image in which the designated person is captured from the first image group;
An image processing system is provided that includes a composite image creation unit that creates a second composite image using an image showing a designated person.
 第1のユーザの端末装置から、ネットワークを介して、第1のユーザによって設定された指定人物の重要度の情報を取得する重要度情報取得部を備え、
 合成画像作成部は、重要度の情報に基づいて、重要度が低い指定人物よりも重要度が高い指定人物が写っている画像を優先的に用いて第2合成画像を作成することが好ましい。
An importance level information acquisition unit that acquires importance level information of the designated person set by the first user from the terminal device of the first user via the network;
It is preferable that the composite image creation unit creates the second composite image based on the importance level information by preferentially using an image in which a designated person having a higher importance than a designated person having a lower importance is captured.
 第1のユーザの端末装置から、指定人物に対する第1のユーザのコメントを取得するコメント取得部を備え、
 合成画像作成部は、指定人物が写っている複数の画像に加え、コメントを用いて第2合成画像を作成することが好ましい。
A comment obtaining unit for obtaining a first user's comment on the designated person from the terminal device of the first user;
Preferably, the composite image creating unit creates a second composite image using a comment in addition to a plurality of images in which the designated person is shown.
 第1のユーザの端末装置から、第2合成画像において使用される複数の画像の各々と関連付けられた1以上の動画像の各々を取得する動画像取得部を備え、
 合成画像作成部は、1以上の動画像の各々と関連付けられた1以上の画像を含み、かつ、指定人物が写っている第1画像群を用いて第2合成画像を作成し、
 第2合成画像において使用された第1画像群のうち、1以上の動画像のうちの第1動画像と関連付けられた第1画像が、指定人物の端末装置の画像撮影部によって撮影され、かつ、撮影された第1画像が、指定人物の端末装置の画像表示部に表示された場合に、第1動画像が、指定人物の端末装置の画像表示部において再生されることが好ましい。
A moving image acquisition unit that acquires each of one or more moving images associated with each of the plurality of images used in the second composite image from the terminal device of the first user;
The composite image creating unit creates a second composite image using the first image group including one or more images associated with each of the one or more moving images and including the designated person,
The first image associated with the first moving image of the one or more moving images in the first image group used in the second composite image is shot by the image shooting unit of the designated person's terminal device, and When the photographed first image is displayed on the image display unit of the designated person's terminal device, the first moving image is preferably reproduced on the image display unit of the designated person's terminal device.
 また、第1動画像が、指定人物の端末装置の画像表示部に表示された第1画像の表示領域内において再生されることが好ましい。 Further, it is preferable that the first moving image is reproduced within the display area of the first image displayed on the image display unit of the designated person's terminal device.
 また、本発明は、第1合成画像取得部が、第1のユーザが所有する第1合成画像を取得するステップと、
 画像解析部が、第1合成画像の内容を解析するステップと、
 人物特定部が、第1合成画像の解析結果に基づいて、第1合成画像に写っている複数の人物を特定するステップと、
 指定人物受付部が、第1合成画像に写っている複数の人物の中から、指定人物として、1以上の人物の指定を受け付けるステップと、
 第1画像群保持部が、第1のユーザが所有する第1画像群を保持するステップと、
 画像特定部が、第1画像群の中から、指定人物が写っている画像を特定するステップと、
 合成画像作成部が、指定人物が写っている画像を用いて第2合成画像を作成するステップとを含む画像処理方法を提供する。
In the present invention, the first composite image acquisition unit acquires a first composite image owned by the first user;
An image analysis unit analyzing the content of the first composite image;
A person specifying unit specifying a plurality of persons in the first composite image based on the analysis result of the first composite image;
A designated person accepting unit for accepting designation of one or more persons as designated persons from a plurality of persons reflected in the first composite image;
A first image group holding unit holding a first image group owned by the first user;
An image specifying unit specifying an image in which the designated person is captured from the first image group;
And a step of creating a second composite image using an image in which a designated person is captured.
 ここで、第1合成画像は、第1合成画像を他の画像から識別する識別情報を有し、
 識別情報取得部が、第1合成画像が有する識別情報を取得するステップと、
 顔画像保持部が、第1合成画像を作成する場合に、複数のユーザの端末装置からネットワークを介して複数のユーザの顔画像を含む複数の顔画像を取得し、取得した複数の顔画像を保持するステップと、
 顔画像特定部が、識別情報取得部によって取得された識別情報に基づいて、顔画像保持部に保持された複数の顔画像の中から、複数のユーザの顔画像を特定するステップとを含み、
 人物を特定するステップは、顔画像特定部によって特定された複数のユーザの顔画像に基づいて、第1合成画像に写っている複数の人物の各々に対応する複数のユーザの各々を特定し、
 人物の指定を受け付けるステップは、人物を特定するステップによって特定された複数のユーザの中から、1以上の指定人物に対応するユーザを特定することが好ましい。
Here, the first composite image has identification information for identifying the first composite image from other images,
An identification information acquisition unit acquiring identification information included in the first composite image;
When the face image holding unit creates the first composite image, the face image holding unit acquires a plurality of face images including the face images of the plurality of users from the terminal devices of the plurality of users via the network, and the acquired plurality of face images Holding step;
A face image specifying unit specifying a plurality of user face images from the plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquiring unit,
The step of specifying a person specifies each of a plurality of users corresponding to each of a plurality of persons shown in the first composite image based on the face images of the plurality of users specified by the face image specifying unit,
The step of accepting the designation of the person preferably specifies a user corresponding to one or more designated persons from among a plurality of users specified by the step of specifying the person.
 また、本発明は、識別情報取得部が、第1のユーザが所有する第1合成画像を他の画像から識別する識別情報を取得するステップと、
 顔画像保持部が、第1合成画像を作成する場合に、複数のユーザの端末装置からネットワークを介して複数のユーザの顔画像を含む複数の顔画像を取得し、取得した複数の顔画像を保持するステップと、
 顔画像特定部が、識別情報取得部によって取得された識別情報に基づいて、顔画像保持部に保持された複数の顔画像の中から、複数のユーザの顔画像を特定するステップと、
 第1画像群保持部が、第1のユーザが所有する第1画像群を保持するステップと、
 指定人物受付部が、顔画像特定部によって特定された複数のユーザの中から、指定人物として、1以上の人物の指定を受け付けるステップと、
 画像特定部が、第1画像群の中から、指定人物が写っている画像を特定するステップと、
 合成画像作成部が、指定人物が写っている画像を用いて第2合成画像を作成するステップとを含む画像処理方法を提供する。
According to the present invention, the identification information acquisition unit acquires identification information for identifying the first composite image owned by the first user from other images;
When the face image holding unit creates the first composite image, the face image holding unit acquires a plurality of face images including the face images of the plurality of users from the terminal devices of the plurality of users via the network, and the acquired plurality of face images Holding step;
A step of specifying a face image of a plurality of users from a plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquisition unit;
A first image group holding unit holding a first image group owned by the first user;
A designated person receiving unit receiving a designation of one or more persons as a designated person from among a plurality of users identified by the face image identifying unit;
An image specifying unit specifying an image in which the designated person is captured from the first image group;
And a step of creating a second composite image using an image in which a designated person is captured.
 また、本発明は、上記に記載の画像処理方法の各々のステップをコンピュータに実行させるためのプログラムを提供する。 The present invention also provides a program for causing a computer to execute each step of the image processing method described above.
 また、本発明は、上記に記載の画像処理方法の各々のステップをコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供する。 The present invention also provides a computer-readable recording medium on which a program for causing a computer to execute each step of the image processing method described above is recorded.
 本発明によれば、第1合成画像に写っている複数の人物を特定し、特定した複数の人物の中から、指定人物として、1以上の人物の指定を受け付け、第1のユーザが所有する第1画像群の中から、指定人物が写っている画像を特定し、特定した画像を用いて、第1合成画像とは別の第2合成画像を作成することができるので、第1のユーザが第2合成画像を容易に作成することが可能である。 According to the present invention, a plurality of persons appearing in the first composite image are identified, and one or more persons are designated as designated persons from among the plurality of identified persons, and are owned by the first user. The first user can specify the image in which the designated person is captured from the first image group, and use the specified image to create a second composite image different from the first composite image. However, it is possible to easily create the second composite image.
本発明に係る画像処理システムの構成を表す一実施形態のブロック図である。It is a block diagram of one embodiment showing composition of an image processing system concerning the present invention. 図1に示すサーバの構成を表す一実施形態のブロック図である。It is a block diagram of one Embodiment showing the structure of the server shown in FIG. 図2に示す情報設定部の構成を表す一実施形態のブロック図である。It is a block diagram of one Embodiment showing the structure of the information setting part shown in FIG. 図2に示す情報管理部の構成を表す一実施形態のブロック図である。It is a block diagram of one Embodiment showing the structure of the information management part shown in FIG. 図2に示すデータ取得部の構成を表す一実施形態のブロック図である。It is a block diagram of one Embodiment showing the structure of the data acquisition part shown in FIG. 図2に示すデータ解析部の構成を表す一実施形態のブロック図である。It is a block diagram of one Embodiment showing the structure of the data analysis part shown in FIG. 図2に示す合成画像作成部の構成を表す一実施形態のブロック図である。It is a block diagram of one Embodiment showing the structure of the synthesized image preparation part shown in FIG. 図7に示す本編作成部の構成を表す一実施形態のブロック図である。It is a block diagram of one Embodiment showing the structure of the main part preparation part shown in FIG. 図7に示す寄せ書き作成部の構成を表す一実施形態のブロック図である。FIG. 8 is a block diagram of an embodiment illustrating a configuration of a group creation unit illustrated in FIG. 7. 図1に示すユーザの端末装置の構成を表す一実施形態のブロック図である。It is a block diagram of one Embodiment showing the structure of the user's terminal device shown in FIG. 図1に示す画像処理システムの動作を表す一実施形態のフローチャートである。2 is a flowchart of an embodiment illustrating an operation of the image processing system illustrated in FIG. 1. 図11に続く画像処理システムの動作を表す一実施形態のフローチャートである。12 is a flowchart of an embodiment illustrating the operation of the image processing system following FIG. 11. 図12に続く画像処理システムの動作を表す一実施形態のフローチャートである。13 is a flowchart illustrating an operation of the image processing system following FIG. 12 according to an embodiment. 図13に続く画像処理システムの動作を表す一実施形態のフローチャートである。14 is a flowchart illustrating an operation of the image processing system following FIG. 13 according to an embodiment. 合成画像の予算を設定する画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen which sets the budget of a synthesized image. フォトブックの表紙ページのデザインを設定する画面を表す一例の概念図である。It is an example conceptual diagram showing the screen which sets the design of the cover page of a photo book. フォトブックの寄せ書きページのデザインを設定する画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen which sets the design of the page to be written in a photo book. 画像および寄せ書きメッセージの募集締切日を設定する画面を表す一例の概念図である。It is a conceptual diagram of an example showing a screen for setting an application and a deadline date for a message. 合成画像の作成期間を設定する画面を表す一例の概念図である。It is a conceptual diagram of an example showing a screen for setting a composite image creation period. 画像商品の配送日を設定する画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen which sets the delivery date of image goods. 画像商材および日程の情報を確認する画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen which confirms the image merchandise and schedule information. アカウント情報を入力する画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen which inputs account information. 幹事ユーザのログインと、画像商材および日程の情報の保存とが完了したことを表す画面を表す一例の概念図である。It is a conceptual diagram of an example showing a screen indicating that the login of the secretary user and the storage of image merchandise and schedule information have been completed. 参加ユーザの端末装置へ送付する招待状を作成するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for creating the invitation sent to a participating user's terminal device. 招待状の内容を確認するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for confirming the content of an invitation. 招待状を参加ユーザの端末装置へ送付するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for sending an invitation to a participating user's terminal device. 受け取った招待状を表す画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen showing the received invitation. 合成画像において使用される画像、画像の評価情報、寄せ書きメッセージ等を参加ユーザがアップロードする画面にアクセスするための共通パスワードを入力するための画面を表す一例の概念図である。It is an example conceptual diagram showing the screen for inputting the common password for accessing the screen which a participating user uploads the image used in a composite image, the evaluation information of an image, a message, etc. 新規な参加ユーザを登録するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for registering a new participating user. 参加ユーザとして登録する名前および秘密のコトバを登録するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing a screen for registering a name registered as a participating user and a secret word. 参加ユーザがアップロードする画像を選択するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing a screen for selecting images to be uploaded by participating users. 2以上の参加ユーザの端末装置から送信された複数の画像の各々を評価するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for evaluating each of the several image transmitted from the terminal device of two or more participating users. 寄せ書きページがフォトブックの巻末に入ることを通知する画面を表す一例の概念図である。It is a conceptual diagram of an example showing a screen for notifying that a page to be written enters the end of a photobook. 寄せ書きページにおいて使用する参加ユーザのプロフィール画像を設定するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for setting the profile image of the participating user used in a group writing page. 寄せ書きメッセージを入力するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for inputting a written message. 参加ユーザが入力した寄せ書きメッセージを確認するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for confirming the written message inputted by the participating user. 寄せ書きメッセージのアップロードが完了したことを表す画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen showing that the upload of the message message has been completed. 第2合成画像を作成することを知らせる画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen which notifies that a 2nd synthesized image is produced. 人物を指定するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for designating a person. 第1画像群を指定するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing a screen for designating a first image group. 第1画像群の中から画像を自動で選んでポストカードを作成することを知らせる画面を表す一例の概念図である。FIG. 10 is a conceptual diagram illustrating an example of a screen informing that a postcard is created by automatically selecting an image from a first image group. 第2合成画像を確認するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for confirming a 2nd synthesized image. 第2合成画像を送付する人物の住所を入力するための画面を表す一例の概念図である。It is a conceptual diagram of an example showing the screen for inputting the address of the person who sends a 2nd synthesized image.
 以下に、添付の図面に示す好適実施形態に基づいて、本発明の画像処理システム、画像処理方法、プログラムおよび記録媒体を詳細に説明する。 Hereinafter, an image processing system, an image processing method, a program, and a recording medium of the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.
 図1は、本発明に係る画像処理システム10の構成を表す一実施形態のブロック図である。同図に示す画像処理システム10は、合成画像の作成に関わる複数のユーザの端末装置14からネットワーク16を介して取得された複数の画像を用いて、寄せ書きページを含むフォトブック等の合成画像を作成する。画像処理システム10は、サーバ12と、ネットワーク16を介してサーバ12に接続された複数のユーザの端末装置(クライアント)14とを備えている。 FIG. 1 is a block diagram of an embodiment showing a configuration of an image processing system 10 according to the present invention. An image processing system 10 shown in the figure uses a plurality of images acquired from a plurality of terminal devices 14 of a plurality of users involved in the creation of a composite image via a network 16 to generate a composite image such as a photo book including a postscript page. create. The image processing system 10 includes a server 12 and a plurality of user terminal devices (clients) 14 connected to the server 12 via a network 16.
 サーバ12は、端末装置14からの指示に基づいて、合成画像を作成するための種々のデータ処理を行うものであり、例えば、デスクトップPC(Personal Computer:パーソナルコンピュータ)またはワークステーション等により構成される。 The server 12 performs various data processing for creating a composite image based on an instruction from the terminal device 14, and is configured by, for example, a desktop PC (Personal Computer) or a workstation. .
 端末装置14は、サーバ12に対して各種の指示を与えて種々のデータ処理を行わせるものであり、例えば、スマートフォン、タブレットPCまたはノートPC等により構成される。 The terminal device 14 gives various instructions to the server 12 to perform various data processing, and is configured by, for example, a smartphone, a tablet PC, or a notebook PC.
 ネットワーク16は、例えば、電話回線またはインターネット回線等であり、有線または無線によってサーバ12と端末装置14との間を相互に接続し、双方向の通信を可能とする。 The network 16 is, for example, a telephone line or an Internet line, and connects the server 12 and the terminal device 14 to each other by wire or wireless to enable bidirectional communication.
 図2は、図1に示すサーバ12の構成を表す一実施形態のブロック図である。同図に示すサーバ12は、合成画像に関する各種の情報を設定する情報設定部18と、合成画像の作成に関する各種の情報を管理する情報管理部20と、合成画像において使用する各種のデータを取得するデータ取得部22と、合成画像において使用する各種のデータを解析するデータ解析部24と、合成画像を作成する合成画像作成部26とを備えている。 FIG. 2 is a block diagram of an embodiment showing the configuration of the server 12 shown in FIG. The server 12 shown in the figure acquires an information setting unit 18 for setting various types of information related to the composite image, an information management unit 20 for managing various types of information related to creation of the composite image, and various types of data used in the composite image. A data acquisition unit 22, a data analysis unit 24 that analyzes various data used in the composite image, and a composite image creation unit 26 that creates a composite image.
 以下の説明では、本編ページおよび寄せ書きページを含む合成画像の作成に関わる複数のユーザのうち、合成画像を作成する一人のユーザを幹事ユーザと表現し、幹事ユーザを含む2以上のユーザを参加ユーザと表現する。例えば、幹事が友人グループのうちの一人である場合などがこれに該当する。
 ただし、別の実施態様において、写真店が幹事の代行を請け負う場合のように幹事自体は写真もメッセージも提供しないような場合は、参加ユーザの数には幹事ユーザの数は含まないものとする。
In the following description, among a plurality of users involved in creating a composite image including a main page and a postscript page, one user who creates a composite image is expressed as an administrative user, and two or more users including the administrative user are participating users. It expresses. For example, this is the case when the secretary is one of a group of friends.
However, in another embodiment, the number of participating users does not include the number of secretary users if the secretary itself does not provide a photo or message, such as when the photo shop undertakes the agency's agency. .
 図3は、図2に示す情報設定部18の構成を表す一実施形態のブロック図である。同図に示す情報設定部18は、予算設定部28と、商材取得部30と、表紙デザイン設定部32と、寄せ書きデザイン設定部34と、日程設定部36と、重要度情報取得部72とを備えている。 FIG. 3 is a block diagram of an embodiment showing the configuration of the information setting unit 18 shown in FIG. The information setting unit 18 shown in the figure includes a budget setting unit 28, a product acquisition unit 30, a cover design setting unit 32, a margin design setting unit 34, a schedule setting unit 36, and an importance information acquisition unit 72. It has.
 予算設定部28は、幹事ユーザによって設定された合成画像の予算の情報を、ネットワーク16を介して、幹事ユーザの端末装置14から取得する。 The budget setting unit 28 acquires the budget information of the composite image set by the secretary user from the terminal device 14 of the secretary user via the network 16.
 続いて、商材取得部30は、予算設定部28によって取得された予算の情報に対応するサイズおよびページ数の1以上の画像商材(画像商材の情報)の中から、幹事ユーザによって設定された1つの画像商材を、ネットワーク16を介して、幹事ユーザの端末装置14から取得する。 Subsequently, the commercial material acquisition unit 30 is set by the secretary user from one or more image products (image product information) having a size and the number of pages corresponding to the budget information acquired by the budget setting unit 28. One image product thus obtained is acquired from the terminal device 14 of the secretary user via the network 16.
 画像商材は、画像商品を作成するための素材であり、例えば、フォトブック等のフォトアルバム、シャッフルプリント、画像付きカレンダ等を含む。画像は主に写真である。
 また、画像商材には、各々サイズおよびページ数のうちの少なくとも一方が異なる複数種類の画像商材が含まれる。画像商材のページ数は、本編ページおよび寄せ書きページを含むページ数である。画像商品には、紙媒体の画像商品および電子データの画像商品が含まれる。
 本発明にいうページとは、画像配置および寄せ書き配置を行う単位をいう。本実施形態においては、見開きページのことを指す。しかし他の実施形態においては片面ページであってもよい。また、本実施形態内の画像処理システム10の内部では見開きページを単位とし、かつユーザには片面ページを単位として画像商材のページ数を表示することとしてもよい。
The image product is a material for creating an image product, and includes, for example, a photo album such as a photo book, a shuffle print, a calendar with an image, and the like. The images are mainly photographs.
The image merchandise includes a plurality of types of image merchandise each having a different size and / or number of pages. The number of pages of the image merchandise is the number of pages including the main page and the miscellaneous pages. Image merchandise includes image merchandise for paper media and image merchandise for electronic data.
The page in the present invention refers to a unit for performing image arrangement and side-by-side arrangement. In the present embodiment, it refers to a spread page. However, in other embodiments, it may be a single-sided page. Further, inside the image processing system 10 in the present embodiment, the number of pages of the image product may be displayed to the user in units of spread pages and in units of single-sided pages.
 フォトブックは、例えば、ユーザが選択した複数の画像を、ユーザの所望のレイアウトで複数のページに配置した合成画像である。フォトブックはまた、ユーザが保有する所望の期間(例えば一年分)の画像から、自動選択により選択された画像を、自動レイアウトで複数のページに配置した合成画像であってもよい(例えば富士フイルム株式会社製のイヤーアルバム)。また、シャッフルプリントは、複数の画像をシャッフルして1枚のプリントに配置した合成画像である。画像付きカレンダは、例えば、各月のカレンダに対応する画像を配置した合成画像である。なお、フォトブックは、紙媒体であっても良いし、電子データであっても良い。 A photo book is, for example, a composite image in which a plurality of images selected by a user are arranged on a plurality of pages in a layout desired by the user. The photo book may also be a composite image in which images selected by automatic selection from images in a desired period (for example, one year) held by the user are arranged on a plurality of pages by automatic layout (for example, Fuji). Film Co., Ltd. ear album). The shuffle print is a composite image in which a plurality of images are shuffled and arranged on one print. The calendar with image is, for example, a composite image in which images corresponding to the calendars of each month are arranged. The photobook may be a paper medium or electronic data.
 本実施形態の場合、合成画像は、寄せ書きページを巻末に含むフォトブックである。寄せ書きページは、参加ユーザの端末装置14から取得された2以上の参加ユーザの寄せ書きメッセージが配置された合成画像である。寄せ書きメッセージは、寄せ書きページにおいて使用される参加ユーザのメッセージである。
 また、寄せ書きメッセージに加えて、プロフィール画像を寄せ書きページに配置してもよい。プロフィール画像は、例えば、参加ユーザの顔画像であるが、その他の画像でもよい。
In the case of the present embodiment, the composite image is a photo book that includes a grouped page at the end. The message page is a composite image in which message messages of two or more participating users acquired from the terminal devices 14 of the participating users are arranged. The message message is a message of the participating user used in the message page.
Further, in addition to the message, the profile image may be arranged on the message page. The profile image is, for example, a face image of a participating user, but may be other images.
 続いて、表紙デザイン設定部32は、1以上の表紙ページのデザインの中から、幹事ユーザによって設定された1つの表紙ページのデザインの情報を、ネットワーク16を介して、幹事ユーザの端末装置14から取得する。 Subsequently, the cover design setting unit 32 receives information on the design of one cover page set by the secretary user from one or more cover page designs via the network 16 from the terminal device 14 of the secretary user. get.
 表紙ページのデザインの情報には、例えば、表紙ページの模様、表紙ページに描かれているイラスト等のデザインの情報の他、表紙ページに記載される合成画像のタイトルの情報、表紙ページの色の情報等が含まれる。 The cover page design information includes, for example, the cover page pattern, the design information such as the illustration drawn on the cover page, the title information of the composite image described on the cover page, and the color of the cover page. Information etc. are included.
 続いて、寄せ書きデザイン設定部34は、1以上の寄せ書きページのデザインの中から、幹事ユーザによって設定された1つの寄せ書きページのデザインの情報を、ネットワーク16を介して、幹事ユーザの端末装置14から取得する。 Subsequently, the draft design setting unit 34 sends information on the design of one draft page set by the secretary user from the design of one or more draft pages from the terminal device 14 of the secretary user via the network 16. get.
 寄せ書きページのデザインの情報には、例えば、参加ユーザのプロフィール画像および寄せ書きメッセージを寄せ書きページに配置する位置および大きさ等があらかじめ設定されたテンプレートの情報等を含む。 The information on the page layout design includes, for example, information on the template in which the position and size of the profile image of the participating user and the layout message on the page are set in advance.
 続いて、日程設定部36は、幹事ユーザによって設定された画像および寄せ書きメッセージの募集締切日、合成画像の作成期間、および、画像商品の配送日を含む日程の情報を、ネットワーク16を介して、幹事ユーザの端末装置14から取得する。 Subsequently, the schedule setting unit 36 sends the schedule information including the application deadline date of the image and the contribution message set by the secretary user, the creation period of the composite image, and the delivery date of the image product via the network 16. Obtained from the terminal device 14 of the secretary user.
 画像および寄せ書きメッセージの募集締切日は、参加ユーザが画像および寄せ書きメッセージをアップロード(投稿)することができる期限、つまり、画像処理システム10が参加ユーザの端末装置14から画像および寄せ書きメッセージを取得することができる期限を表す。
 また、合成画像の作成期間は、幹事ユーザが、複数のユーザの端末装置14から取得された複数の画像を用いて合成画像を作成するための期間、言い換えると、画像商品を注文する期限を表し、画像商品の配送日は、画像商品を配送する日付を表す。
The deadline for recruiting images and messages is that the participating users can upload (post) images and messages, that is, the image processing system 10 acquires the images and messages from the terminal devices 14 of the participating users. Represents the deadline that can be done.
The composite image creation period represents a period for the secretary user to create a composite image using a plurality of images acquired from the terminal devices 14 of a plurality of users, in other words, a time limit for ordering an image product. The delivery date of the image product represents the date on which the image product is delivered.
 続いて、重要度情報取得部72は、合成画像の受取人(本発明の第1のユーザ)の端末装置14から、ネットワーク16を介して、受取人によって設定された指定人物の重要度の情報を取得する。 Subsequently, the importance level information acquisition unit 72 receives information on the importance level of the designated person set by the recipient from the terminal device 14 of the recipient of the composite image (first user of the present invention) via the network 16. To get.
 指定人物は、受取人が所有する第1合成画像に写っている複数の人物の中から、受取人によって指定された1以上の人物である。本実施の形態の場合、第1合成画像は、受取人が所有するフォトブックである。なお、受取人以外の人物が、第1合成画像に写っている複数の人物の中から1以上の人物を指定してもよい。画像処理システム10においては、受取人が所有する第1画像群のうちの指定人物が写っている画像を用いて、第1合成画像とは異なる第2合成画像が作成され、作成された第2合成画像が、例えば、指定人物に送付される。 The designated person is one or more persons designated by the recipient from among a plurality of people shown in the first composite image owned by the recipient. In the case of the present embodiment, the first composite image is a photo book owned by the recipient. Note that a person other than the recipient may designate one or more persons from a plurality of persons shown in the first composite image. In the image processing system 10, a second composite image different from the first composite image is created using an image showing a designated person in the first image group owned by the recipient, and the second composite image created is created. The composite image is sent to a designated person, for example.
 受取人は、1以上の指定人物のうちの少なくとも一人の指定人物の重要度を設定することができる。例えば、重要度情報取得部72により、初期設定として、全ての指定人物の重要度が同じ最低レベルの重要度に設定されるが、受取人は、初期設定を変更して重要度を設定することができる。受取人が設定した指定人物の重要度は、受取人が設定した重要度に設定され、受取人が設定していない指定人物の重要度は、初期設定である最低レベルの重要度に設定されたままの状態となる。 Recipient can set the importance of at least one designated person among one or more designated persons. For example, the importance level information acquisition unit 72 sets the importance level of all designated persons to the same minimum level of importance level as an initial setting, but the recipient changes the initial setting and sets the importance level. Can do. The importance of the designated person set by the recipient is set to the importance set by the recipient, and the importance of the designated person not set by the recipient is set to the lowest level importance that is the default setting. It will remain as it is.
 重要度の情報の設定は、受取人が第1合成画像を受け取る前にあらかじめ行っておいてもよいし、あるいは、受取人が第1合成画像を受け取った後に、例えば、第1合成画像の解析結果に基づいて行ってよい。 The importance level information may be set in advance before the recipient receives the first composite image, or after the recipient receives the first composite image, for example, analysis of the first composite image is performed. You may do this based on the results.
 続いて、図4は、図2に示す情報管理部20の構成を表す一実施形態のブロック図である。同図に示す情報管理部20は、設定保存部38と、アカウント情報保存部40と、管理画面情報送付部42と、アップロード催促部44とを備えている。 Subsequently, FIG. 4 is a block diagram of an embodiment showing the configuration of the information management unit 20 shown in FIG. The information management unit 20 shown in the figure includes a setting storage unit 38, an account information storage unit 40, a management screen information transmission unit 42, and an upload prompting unit 44.
 設定保存部38は、商材取得部30によって取得された画像商材、および、日程設定部36によって取得された日程の情報を保存する。 The setting storage unit 38 stores the image product acquired by the product acquisition unit 30 and the schedule information acquired by the schedule setting unit 36.
 続いて、アカウント情報保存部40は、幹事ユーザによって設定された幹事ユーザのアカウント情報を、ネットワーク16を介して、幹事ユーザの端末装置14から取得する。また、アカウント情報保存部40は、参加ユーザによって設定された参加ユーザのアカウント情報を、ネットワーク16を介して、参加ユーザの端末装置14から取得して保存する。 Subsequently, the account information storage unit 40 acquires the account information of the secretary user set by the secretary user from the terminal device 14 of the secretary user via the network 16. Further, the account information storage unit 40 acquires and stores the participating user's account information set by the participating user from the participating user's terminal device 14 via the network 16.
 例えば、幹事ユーザのアカウント情報は、幹事ユーザのメールアドレスおよび幹事パスワードである。一方、参加ユーザのアカウント情報は、参加ユーザの名前および個別パスワード(参加ユーザに対しては図30にあるように「秘密のコトバ」と表示される)である。参加ユーザの名前は、幹事ユーザが参加ユーザを管理するために使用され、個別パスワードは、画像処理システム10が参加ユーザを特定するために使用される。本実施形態の場合、秘密のコトバは、後から変更および再発行はできないものとする。 For example, the account information of the secretary user is the email address and secretary password of the secretary user. On the other hand, the account information of the participating user is the name and individual password of the participating user (displayed as “secret word” as shown in FIG. 30 for the participating user). The name of the participating user is used for the managing user to manage the participating user, and the individual password is used for the image processing system 10 to identify the participating user. In the case of this embodiment, it is assumed that the secret word cannot be changed or reissued later.
 続いて、管理画面情報送付部42は、幹事ユーザが、画像商材および日程等を管理する管理画面にアクセスするためのURL(Uniform Resource Locator)を含むメッセージを、ネットワーク16を介して、幹事ユーザの端末装置14に送付する。幹事ユーザは、管理画面から画像商材および日程の変更の他、幹事ユーザの変更、幹事ユーザの追加(例えば後述する副幹事の追加)等を行うことができる。 Subsequently, the management screen information sending unit 42 sends a message including a URL (Uniform Resource Locator) for accessing the management screen for managing the image merchandise and the schedule by the managing user via the network 16 to the managing user. To the terminal device 14. In addition to changing the image product and schedule, the secretary user can change the secretary user, add a secretary user (for example, add a secondary secretary described later), and the like.
 管理画面情報送付部42は、例えば、電子メールにより、管理画面にアクセスするためのURLを含むメッセージを、アカウント情報保存部40によって取得された幹事ユーザのメールアドレスに送付する。 The management screen information sending unit 42 sends a message including a URL for accessing the management screen by e-mail, for example, to the email address of the secretary user acquired by the account information storage unit 40.
 続いて、アップロード催促部44は、幹事ユーザによって作成された招待状を、ネットワーク16を介して、参加ユーザの端末装置14へ送付する。 Subsequently, the upload prompting unit 44 sends the invitation created by the secretary user to the terminal device 14 of the participating user via the network 16.
 招待状は、参加ユーザを合成画像の作成に招待し、合成画像において使用される画像、各々の画像に対する評価情報、プロフィール画像および寄せ書きメッセージ等をアップロードすることを参加ユーザに催促する催促情報である。 The invitation is prompting information that invites the participating user to create a composite image and prompts the participating user to upload an image used in the composite image, evaluation information for each image, a profile image, a message, and the like. .
 アップロード催促部44は、招待状を、例えば、SNS(Social Networking Service:ソーシャルネットワーキングサービス)のメッセージ、または、電子メールによって参加ユーザの端末装置14に送付する。 The upload prompting unit 44 sends the invitation to the terminal device 14 of the participating user by, for example, an SNS (Social Networking Service) message or an e-mail.
 続いて、図5は、図2に示すデータ取得部22の構成を表す一実施形態のブロック図である。同図に示すデータ取得部22は、画像取得部46と、評価情報取得部48と、メッセージ取得部50と、コメント取得部74と、動画像取得部76と、第1合成画像取得部98と、識別情報取得部78と、顔画像保持部100と、顔画像特定部80と、第1画像群保持部102とを備えている。 Subsequently, FIG. 5 is a block diagram of an embodiment showing the configuration of the data acquisition unit 22 shown in FIG. The data acquisition unit 22 shown in the figure includes an image acquisition unit 46, an evaluation information acquisition unit 48, a message acquisition unit 50, a comment acquisition unit 74, a moving image acquisition unit 76, and a first composite image acquisition unit 98. , An identification information acquisition unit 78, a face image holding unit 100, a face image specifying unit 80, and a first image group holding unit 102.
 画像取得部46は、一定の期間、本実施形態の場合、招待状が送付されてから、日程設定部36によって設定された画像および寄せ書きメッセージの募集締切日までの期間、2以上の参加ユーザの端末装置14からネットワーク16を介して送信された複数の画像(画像群)を取得する。また、画像取得部46は、各々の参加ユーザによって設定された参加ユーザのプロフィール画像を取得する。 In the case of the present embodiment, the image acquisition unit 46 is a period between the time when the invitation is sent and the date set by the schedule setting unit 36 until the closing date for the recruitment of images and messages. A plurality of images (image group) transmitted from the terminal device 14 via the network 16 are acquired. Moreover, the image acquisition part 46 acquires the participating user's profile image set by each participating user.
 画像取得部46は、参加ユーザの端末装置14からネットワーク16を介して送信された複数の画像(画像群)を取得したのち、その複数の画像がどの参加ユーザから送信されたものであるかを画像と関連付けて保存する。また、画像取得部46は、参加ユーザの端末装置14からネットワーク16を介して送信されたプロフィール画像についても、どの参加ユーザから送信されたものであるかをプロフィール画像と関連付けて保存する。 After acquiring a plurality of images (image group) transmitted from the terminal device 14 of the participating user via the network 16, the image acquisition unit 46 determines which participating user transmitted the plurality of images. Save it in association with the image. In addition, the image acquisition unit 46 stores the profile image transmitted from the terminal device 14 of the participating user via the network 16 in association with the profile image that is transmitted from which participating user.
 続いて、評価情報取得部48は、同じく一定の期間、2以上の参加ユーザによって付与された各々の画像に対する評価を表す評価情報を、ネットワーク16を介して、2以上の参加ユーザの端末装置14から取得する。 Subsequently, the evaluation information acquisition unit 48 transmits the evaluation information representing the evaluation for each image given by two or more participating users for a certain period of time via the network 16 to the terminal devices 14 of two or more participating users. Get from.
 画像の評価情報は、各々の画像に対する各々の参加ユーザの評価、例えば、高評価または低評価を表す情報である。 The image evaluation information is information representing the evaluation of each participating user for each image, for example, high evaluation or low evaluation.
 続いて、メッセージ取得部50は、同じく一定の期間、各々の参加ユーザによってアップロードされた寄せ書きメッセージを、ネットワーク16を介して、各々の参加ユーザの端末装置14から取得する。 Subsequently, the message acquisition unit 50 acquires the message message uploaded by each participating user for the same period from the terminal device 14 of each participating user via the network 16.
 メッセージ取得部50は、参加ユーザの端末装置14からネットワーク16を介して送信された寄せ書きメッセージについて、どの参加ユーザから送信されたものであるかを寄せ書きメッセージと関連付けて保存する。 The message acquisition unit 50 saves the participation message transmitted from the participating user's terminal device 14 via the network 16 in association with the additional message.
 続いて、コメント取得部74は、受取人の端末装置14から、ネットワーク16を介して、指定人物に対する受取人のコメントを取得する。 Subsequently, the comment acquisition unit 74 acquires the recipient's comment on the designated person from the recipient's terminal device 14 via the network 16.
 コメントは、例えば、第2合成画像において使用される画像と組み合わせて画像の配置領域に配置される。 The comment is placed in the image placement area in combination with the image used in the second composite image, for example.
 続いて、動画像取得部76は、受取人の端末装置14から、ネットワーク16を介して、第2合成画像において使用される複数の画像の各々と関連付けられた1以上の動画像を取得する。 Subsequently, the moving image acquisition unit 76 acquires one or more moving images associated with each of the plurality of images used in the second composite image from the recipient terminal device 14 via the network 16.
 動画像の内容は特に限定されないが、例えば、指定人物が写っている動画像、指定人物と関連性のある動画像等を使用することができる。 The content of the moving image is not particularly limited. For example, a moving image in which a designated person is shown, a moving image related to the designated person, or the like can be used.
 続いて、第1合成画像取得部98は、受取人の端末装置14から、ネットワーク16を介して、受取人が所有する第1合成画像を取得する。 Subsequently, the first composite image acquisition unit 98 acquires the first composite image owned by the recipient from the recipient's terminal device 14 via the network 16.
 第1合成画像取得部98は、第1合成画像が電子データ(第1合成画像の画像データ)の場合には、その電子データを取得する。一方、第1合成画像が実物のフォトブックのように、紙等の物体上に担持されている場合には、物体上に担持された第1合成画像がスキャナ等によってスキャンされることにより生成された電子データを取得する。 When the first composite image is electronic data (image data of the first composite image), the first composite image acquisition unit 98 acquires the electronic data. On the other hand, when the first composite image is carried on an object such as paper like a real photo book, the first composite image carried on the object is generated by being scanned by a scanner or the like. Get electronic data.
 第1合成画像は、例えば、画像処理システム10によって作成され、受取人へ送付された合成画像であり、第1合成画像を他の画像から識別する識別情報を有する。識別情報は、各々の合成画像を一意に識別することができるものであれば特に限定されないが、例えば、合成画像上に記載されたバーコード、識別番号等を例示することができる。 The first composite image is, for example, a composite image created by the image processing system 10 and sent to the recipient, and has identification information that identifies the first composite image from other images. The identification information is not particularly limited as long as each composite image can be uniquely identified. For example, a barcode, an identification number, and the like described on the composite image can be exemplified.
 本発明において、受取人等のユーザが画像を所有するとは、そのユーザがその画像を記録媒体に取り込むこと、解析すること、および画像合成に供することができる状態にあることをいう。 In the present invention, that a user such as a recipient owns an image means that the user can take the image into a recording medium, analyze it, and use it for image composition.
 続いて、識別情報取得部78は、第1合成画像取得部98によって取得された第1合成画像が有する識別情報を取得する。 Subsequently, the identification information acquisition unit 78 acquires the identification information included in the first composite image acquired by the first composite image acquisition unit 98.
 続いて、顔画像保持部100は、第1合成画像を作成する場合に、複数の参加ユーザの端末装置14からネットワーク16を介して複数の参加ユーザの顔画像を含む複数の顔画像を取得し、取得した複数の顔画像を保持する。 Subsequently, when creating the first composite image, the face image holding unit 100 acquires a plurality of face images including the face images of the plurality of participating users from the terminal devices 14 of the plurality of participating users via the network 16. , Hold a plurality of acquired face images.
 続いて、顔画像特定部80は、識別情報取得部78によって取得された識別情報に基づいて、顔画像保持部100に保持された複数の顔画像の中から、第1合成画像の作成に関わる複数の参加ユーザの顔画像を特定する。 Subsequently, the face image specifying unit 80 is involved in creating the first composite image from the plurality of face images held in the face image holding unit 100 based on the identification information acquired by the identification information acquisition unit 78. Identify face images of multiple participating users.
 続いて、第1画像群保持部102は、受取人の端末装置14から、ネットワーク16を介して送信された、受取人が所有する第1画像群を保持する。 Subsequently, the first image group holding unit 102 holds the first image group owned by the recipient, transmitted from the recipient terminal device 14 via the network 16.
 続いて、図6は、図2に示すデータ解析部24の構成を表す一実施形態のブロック図である。同図に示すデータ解析部24は、画像数算出部52と、評価数算出部54と、メッセージ数算出部56と、画像解析部58と、評価値算出部60と、人物特定部82と、指定人物受付部84と、画像特定部86とを備えている。 Subsequently, FIG. 6 is a block diagram of an embodiment showing a configuration of the data analysis unit 24 shown in FIG. The data analysis unit 24 shown in the figure includes an image number calculation unit 52, an evaluation number calculation unit 54, a message number calculation unit 56, an image analysis unit 58, an evaluation value calculation unit 60, a person specifying unit 82, A designated person receiving unit 84 and an image specifying unit 86 are provided.
 画像数算出部52は、アップロード催促部44によって招待状が送付されてから一定の期間が経過した後、つまり、画像および寄せ書きメッセージの募集締切日が過ぎた後、画像取得部46によって取得された画像の数を算出する。 The number-of-images calculation unit 52 is acquired by the image acquisition unit 46 after a certain period of time has passed since the invitation was sent by the uploading prompting unit 44, that is, after the application deadline for images and message postings has passed. Calculate the number of images.
 続いて、評価数算出部54は、同じく画像および寄せ書きメッセージの募集締切日が過ぎた後、評価情報取得部48によって取得された高評価および低評価を表す評価情報の数を算出する。 Subsequently, the evaluation number calculation unit 54 also calculates the number of evaluation information representing the high evaluation and the low evaluation acquired by the evaluation information acquisition unit 48 after the application deadline date for the image and the written message has passed.
 続いて、メッセージ数算出部56は、同じく画像および寄せ書きメッセージの募集締切日が過ぎた後、メッセージ取得部50によって取得された寄せ書きメッセージの数を算出する。 Subsequently, the message number calculation unit 56 calculates the number of message messages acquired by the message acquisition unit 50 after the application deadline for images and message messages has passed.
 続いて、画像解析部58は、画像取得部46によって取得された各々の画像の内容を解析する。本実施形態の場合、画像解析部58は、画像取得部46によって画像が取得される毎に、画像解析を行う。また、画像解析部58は、第1合成画像取得部98によって取得された第1合成画像の内容、つまり、第1合成画像において使用されている各々の画像の内容を解析する。 Subsequently, the image analysis unit 58 analyzes the contents of each image acquired by the image acquisition unit 46. In the case of this embodiment, the image analysis unit 58 performs image analysis every time an image is acquired by the image acquisition unit 46. The image analysis unit 58 analyzes the content of the first composite image acquired by the first composite image acquisition unit 98, that is, the content of each image used in the first composite image.
 画像解析部58は、例えば、画像の明るさや色合い、ボケおよびブレの程度等の解析の他、画像に人物の顔が含まれる場合には、顔の大きさ、顔の位置、顔の向き、顔の肌色、笑顔等の表情、目線、画像に含まれる人物の数、人物の位置関係等の解析を行う。 The image analysis unit 58, for example, analyzes the brightness and color of the image, the degree of blurring and blurring, and when the image includes a human face, the size of the face, the position of the face, the orientation of the face, Analysis is performed on the skin color of the face, facial expressions such as smiles, eyes, the number of persons included in the image, and the positional relationship of the persons.
 続いて、評価値算出部60は、画像解析部58による各々の画像の解析結果に基づいて、各々の画像の解析評価値を算出する。また、評価値算出部60は、評価情報取得部48によって取得された各々の画像に対する高評価および低評価を表す評価情報に基づいて、各々の画像の解析評価値に対して値を加減算ないしは重み付けして、各々の画像の総合評価値を算出する。 Subsequently, the evaluation value calculation unit 60 calculates the analysis evaluation value of each image based on the analysis result of each image by the image analysis unit 58. Further, the evaluation value calculation unit 60 adds or subtracts or weights a value to the analysis evaluation value of each image based on the evaluation information representing the high evaluation and the low evaluation for each image acquired by the evaluation information acquisition unit 48. Then, the comprehensive evaluation value of each image is calculated.
 評価値算出部60は、例えば、評価数算出部54によって算出された高評価を表す評価情報の数に基づいて、画像の解析評価値に対して値を加算し、低評価を表す評価情報の数に基づいて、画像の解析評価値に対して値を減算することによって画像の総合評価値を算出することができる。 For example, the evaluation value calculation unit 60 adds a value to the analysis evaluation value of the image based on the number of evaluation information representing the high evaluation calculated by the evaluation number calculation unit 54, and sets the evaluation information representing the low evaluation. Based on the number, the total evaluation value of the image can be calculated by subtracting the value from the analysis evaluation value of the image.
 画像の解析評価値は、画像の解析結果に基づいて算出されるため、画像の良し悪しを決定するための基準となり、解析評価値が高いほど、画質の良い画像であると言える。
 画像の総合評価値は、画像の解析結果に加えて、参加ユーザによって付与された高評価および低評価を表す評価情報に基づいて算出されるため、画像の良し悪しに加えて、参加ユーザの好みを判断するための基準となり、総合評価値が高いほど、画質の良い画像、または、参加ユーザの好みの画像であると言える。
Since the image analysis evaluation value is calculated based on the image analysis result, it becomes a reference for determining whether the image is good or bad. The higher the analysis evaluation value, the better the image quality.
The overall evaluation value of the image is calculated based on the evaluation information representing the high and low evaluations given by the participating users in addition to the analysis result of the image. Therefore, in addition to the quality of the images, the preference of the participating users It can be said that the higher the comprehensive evaluation value, the better the image quality or the preference of the participating user.
 続いて、人物特定部82は、画像解析部58による第1合成画像の解析結果に基づいて、第1合成画像に写っている複数の人物(特定人物)を特定する。また、人物特定部82は、顔画像特定部80によって特定された複数の参加ユーザの顔画像に基づいて、第1合成画像に写っている複数の人物の各々に対応する複数のユーザの各々を特定する。 Subsequently, the person specifying unit 82 specifies a plurality of persons (specific persons) shown in the first composite image based on the analysis result of the first composite image by the image analysis unit 58. In addition, the person specifying unit 82 selects each of a plurality of users corresponding to each of the plurality of persons shown in the first composite image based on the face images of the plurality of participating users specified by the face image specifying unit 80. Identify.
 続いて、指定人物受付部84は、人物特定部82によって特定された第1合成画像に写っている複数の人物の中から、指定人物として、例えば、第1合成画像の受取人によって指定された1以上の人物の指定を受け付ける。また、指定人物受付部84は、顔画像特定部80によって顔画像が特定された第1合成画像の作成に関わる複数の参加ユーザの中から、指定人物として、1以上の人物の指定を受け付ける。 Subsequently, the designated person receiving unit 84 is designated as a designated person from among a plurality of persons shown in the first synthesized image identified by the person identifying unit 82, for example, by a recipient of the first synthesized image. Accepts designation of one or more persons. The designated person accepting unit 84 accepts designation of one or more persons as designated persons from among a plurality of participating users involved in the creation of the first composite image in which the face image is identified by the face image identifying unit 80.
 続いて、画像特定部86は、第1画像群保持部102に保持された第1画像群の中から、指定人物受付部84によって受け付けられた指定人物が写っている画像(特定画像)を特定する。 Subsequently, the image specifying unit 86 specifies an image (specific image) in which the designated person accepted by the designated person accepting unit 84 is captured from the first image group held in the first image group holding unit 102. To do.
 続いて、図7は、図2に示す合成画像作成部26の構成を表す一実施形態のブロック図である。同図に示す合成画像作成部26は、表紙作成部62と、本編作成部64と、寄せ書き作成部66とを備えている。 Subsequently, FIG. 7 is a block diagram of an embodiment showing the configuration of the composite image creation unit 26 shown in FIG. The composite image creation unit 26 shown in the figure includes a cover creation unit 62, a main part creation unit 64, and a margin creation unit 66.
 表紙作成部62は、設定保存部38に保存された商材の情報、および、表紙デザイン設定部32によって取得された表紙ページのデザインの情報に対応するデザインの表紙ページを作成する。 The cover creation unit 62 creates a cover page with a design corresponding to the product information stored in the setting storage unit 38 and the cover page design information acquired by the cover design setting unit 32.
 続いて、本編作成部64は、画像取得部46によって取得された複数の画像を用いて、設定保存部38に保存された商材の情報に対応するページ数の本編ページ(表紙ページおよび寄せ書きページ以外のページ)を作成する。本編作成部64は、設定保存部38に保存された商材の情報に対応する合成画像、本実施形態の場合、フォトブックの本編ページを作成する。 Subsequently, the main part creation unit 64 uses the plurality of images acquired by the image acquisition unit 46, and the main page (the cover page and the miscellaneous page) with the number of pages corresponding to the product information stored in the setting storage unit 38. Other pages). The main part creation unit 64 creates a composite image corresponding to the product information stored in the setting storage unit 38, in the case of this embodiment, a main page of a photo book.
 なお、合成画像を作成するとは、2以上の画像を配置して1つの画像を作成することをいう。合成画像の作成において使用する画像は写真の他に、背景画像、文字画像、スタンプなどの部品画像をも含む。 Note that creating a composite image means creating one image by arranging two or more images. The image used in creating the composite image includes a part image such as a background image, a character image, and a stamp in addition to a photograph.
 本編作成部64は、図8に示すように、画像分割部88、画像抽出部90および画像配置部92等を備えている。 As shown in FIG. 8, the main part creation unit 64 includes an image dividing unit 88, an image extracting unit 90, an image arranging unit 92, and the like.
 画像分割部88は、画像取得部46によって取得された複数の画像を、本編ページのページ数に対応する数のグループに分割する。 The image dividing unit 88 divides the plurality of images acquired by the image acquiring unit 46 into a number of groups corresponding to the number of main pages.
 画像抽出部90は、画像のグループ毎に、画像の総合評価値に基づいて、グループに含まれる画像の中から、本編ページにおいて使用する複数の合成対象画像を抽出する。 The image extraction unit 90 extracts, for each group of images, a plurality of compositing target images used in the main page from images included in the group based on the comprehensive evaluation value of the images.
 画像配置部92は、画像のグループ毎に、画像の総合評価値に基づいて、画像抽出部90によって抽出された各々の合成対象画像のサイズおよび本編ページにおける配置位置を決定し、合成対象画像を、画像のグループに対応するページの本編ページに配置(自動レイアウト)する。 The image placement unit 92 determines the size of each synthesis target image extracted by the image extraction unit 90 and the placement position in the main page based on the overall evaluation value of the image for each group of images, and selects the synthesis target image. The main page of the page corresponding to the image group is arranged (automatic layout).
 続いて、寄せ書き作成部66は、メッセージ取得部50によって取得された参加ユーザのプロフィール画像および寄せ書きメッセージを用いて、寄せ書きページを作成する。寄せ書き作成部66は、設定保存部38に保存された商材の情報、および、寄せ書きデザイン設定部34によって取得された寄せ書きのデザインの情報に対応するデザインの寄せ書きページを作成する。 Subsequently, the draft creation unit 66 creates a draft page using the participating user's profile image and the draft message acquired by the message acquisition unit 50. The draft creation unit 66 creates a draft page for a design corresponding to the product information saved in the setting saving unit 38 and the draft design information acquired by the draft design setting unit 34.
 寄せ書き作成部66は、図9に示すように、メッセージ分割部94およびメッセージ配置部96等を備えている。 As shown in FIG. 9, the message creation unit 66 includes a message division unit 94, a message arrangement unit 96, and the like.
 メッセージ分割部94は、メッセージ取得部50によって取得された寄せ書きメッセージを、寄せ書きページのページ数に対応する数のグループに分割する。 The message dividing unit 94 divides the written message acquired by the message acquisition unit 50 into a number of groups corresponding to the number of pages of the written page.
 メッセージ配置部96は、寄せ書きメッセージのグループ毎に、グループに含まれる寄せ書きメッセージを、寄せ書きメッセージのグループに対応するページの寄せ書きページに配置する。 The message arrangement unit 96 arranges, for each group of overwritten messages, the overwritten message included in the group on the overwritten page of the page corresponding to the overwritten message group.
 寄せ書きページのページ数は、参加ユーザの数および寄せ書きメッセージの数等に応じて設定される。また、本編ページのページ数は、合成画像のページ数および寄せ書きページのページ数等に応じて設定される。本実施形態の場合、参加ユーザの数を2~36人とし、1ページの寄せ書きページに2~12の寄せ書きメッセージを配置し、16ページのフォトブックを作成するものとする。 * The number of pages of the message page is set according to the number of participating users, the number of message messages, and the like. Further, the number of pages of the main page is set according to the number of pages of the composite image, the number of pages of the handwritten page, and the like. In the case of the present embodiment, the number of participating users is 2 to 36, 2 to 12 messages are arranged on one page, and a 16-page photo book is created.
 上記情報設定部18、情報管理部20、データ取得部22、データ解析部24、合成画像作成部26を構成する各部位は、例えば、CPU(Central Processing Unit:中央処理装置)等の制御デバイスが、メモリにロードされたプログラムを実行することにより実現される。また、各部位によって保存されるデータは、例えば、HDD(Hard Disk Drive:ハードディスクドライブ)、SSD(Solid State Drive:ソリッドステートドライブ)、SD(Secure Digital:セキュアデジタル)メモリ等の記憶デバイスに保存される。 Each part constituting the information setting unit 18, the information management unit 20, the data acquisition unit 22, the data analysis unit 24, and the composite image creation unit 26 is, for example, a control device such as a CPU (Central Processing Unit). This is realized by executing a program loaded in the memory. The data stored by each part is stored in a storage device such as an HDD (Hard Disk Drive), SSD (Solid State Drive), or SD (Secure Digital) memory. The
 次に、図10は、図1に示すユーザの端末装置14の構成を表す一実施形態のブロック図である。同図に示すユーザの端末装置14は、画像表示部68と、指示入力部70とを備えている。 Next, FIG. 10 is a block diagram of an embodiment showing the configuration of the user terminal device 14 shown in FIG. The user terminal device 14 shown in the figure includes an image display unit 68 and an instruction input unit 70.
 端末装置14において、画像表示部68は、各種の設定画面、選択画面、確認画面、入力画面、作成画面等を表示するものであり、例えば、液晶ディスプレイ等の表示デバイスによって構成される。 In the terminal device 14, the image display unit 68 displays various setting screens, selection screens, confirmation screens, input screens, creation screens, and the like, and is configured by a display device such as a liquid crystal display.
 続いて、指示入力部70は、ユーザによって入力された各種の設定指示、選択指示、確認指示、入力指示、作成指示等を取得するものであり、例えば、キーボードおよびマウス等の入力デバイスによって構成される。 Subsequently, the instruction input unit 70 acquires various setting instructions, selection instructions, confirmation instructions, input instructions, creation instructions, and the like input by the user, and includes, for example, an input device such as a keyboard and a mouse. The
 本実施形態の場合、画像表示部68および指示入力部70は、タッチパネル等のように、表示デバイスおよび入力デバイスが一体化されたデバイスによって構成される。 In the case of this embodiment, the image display unit 68 and the instruction input unit 70 are configured by a device in which a display device and an input device are integrated, such as a touch panel.
 端末装置14は、合成画像の作成に関わる各々のユーザに1対1に対応して1台である必要はなく、画像処理システム10における各々のユーザのアカウントに対応することができるものであれば、各々のユーザに対応して複数台であってもよい。 The terminal device 14 does not need to be one device corresponding to each user involved in the creation of the composite image in a one-to-one manner, as long as it can correspond to each user account in the image processing system 10. There may be a plurality of units corresponding to each user.
 図示省略しているが、サーバ12および端末装置14は、例えば、サーバ12と端末装置14との間で各種データの送受信を行う通信デバイス等である送受信部、各部位の動作を制御するCPU等である制御部等を備えている。 Although not shown, the server 12 and the terminal device 14 include, for example, a transmission / reception unit that is a communication device that transmits and receives various data between the server 12 and the terminal device 14, a CPU that controls the operation of each part, and the like. The control part etc. which are are provided.
 次に、図11~図14に示すフローチャートおよび図15~図37に示す表示画面を参照しながら、画像処理システム10の動作を説明する。 Next, the operation of the image processing system 10 will be described with reference to the flowcharts shown in FIGS. 11 to 14 and the display screens shown in FIGS.
 合成画像を作成する場合、まず、幹事ユーザは、幹事ユーザの端末装置14において、指示入力部70を介して、画像処理システム10が提供する、合成画像を作成するためのウェブサイトにアクセスする。 When creating a composite image, the secretary user first accesses a website for creating a composite image provided by the image processing system 10 via the instruction input unit 70 in the terminal device 14 of the secretary user.
 合成画像を作成するためのウェブサイトにアクセスすると、図15に示すように、予算設定部28は、合成画像の予算を設定する画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 When a website for creating a composite image is accessed, as shown in FIG. 15, the budget setting unit 28 displays a screen for setting the budget of the composite image on the image display unit 68 of the secretary user's terminal device 14. .
 幹事ユーザは、合成画像の予算を設定する画面において、指示入力部70を介して、幹事ユーザが作成する合成画像の予算を設定する。図15の例では、プルダウンメニューによって、合成画像の予算の一覧があらかじめ登録されている。幹事ユーザは、プルダウンメニューに登録されている合成画像の予算の一覧の中から1つの予算、例えば、3000円~4000円を選択して設定する。 The secretary user sets the budget for the composite image created by the secretary user via the instruction input unit 70 on the screen for setting the budget for the composite image. In the example of FIG. 15, a list of composite image budgets is registered in advance by a pull-down menu. The secretary user selects and sets one budget, for example, 3000 to 4000 yen, from the list of composite image budgets registered in the pull-down menu.
 合成画像の予算が設定されると、予算設定部28は、幹事ユーザによって設定された合成画像の予算の情報を幹事ユーザの端末装置14から取得する(ステップS1)。 When the budget for the composite image is set, the budget setting unit 28 acquires information on the budget for the composite image set by the secretary user from the terminal device 14 of the secretary user (step S1).
 続いて、商材取得部30は、予算の情報に対応する1以上の画像商材を提示する。図15の例では、商材取得部30は、画像商材として、サイズおよびページ数の異なる5件のフォトブックを提示する。 Subsequently, the product acquisition unit 30 presents one or more image products corresponding to the budget information. In the example of FIG. 15, the merchandise acquisition unit 30 presents five photo books having different sizes and the number of pages as image merchandise.
 画像商材が提示されると、幹事ユーザの端末装置14の画像表示部68は、商材取得部30が提示した1以上の画像商材の中から1つの画像商材を設定する画面を表示する。 When the image product is presented, the image display unit 68 of the terminal device 14 of the secretary user displays a screen for setting one image product from one or more image products presented by the product acquisition unit 30. To do.
 幹事ユーザは、画像商材を設定する画面において、指示入力部70を介して、提示された1以上の画像商材の中から1つの画像商材を選択して設定する。図15の例では、A4サイズの16ページのフォトブックが設定されている。 The secretary user selects and sets one image product from the one or more presented image products via the instruction input unit 70 on the screen for setting the image product. In the example of FIG. 15, a 16-page photo book of A4 size is set.
 画像商材としてフォトブックが設定された後、「次へ」のボタンが押されると、例えば、「次へ」のボタンがタップまたはクリックされると、商材取得部30は、幹事ユーザによって設定された1つの画像商材を取得する(ステップS2)。 After the photobook is set as the image product, when the “Next” button is pressed, for example, when the “Next” button is tapped or clicked, the product acquisition unit 30 is set by the managing user. One piece of image merchandise obtained is acquired (step S2).
 なお、「<」のボタンが押されると、1つ前の画面に戻ることができる。これ以後の画面においても同様である。 Note that when the “<” button is pressed, the previous screen can be displayed. The same applies to the subsequent screens.
 続いて、図16に示すように、表紙デザイン設定部32は、フォトブックの表紙ページのデザインを設定する画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as shown in FIG. 16, the cover design setting unit 32 displays a screen for setting the cover page design of the photo book on the image display unit 68 of the terminal device 14 of the manager user.
 幹事ユーザは、表紙ページのデザインを設定する画面において、指示入力部70を介して、1以上の表紙ページのデザインを選択して設定する。図16の例では、幹事ユーザは、3件の表紙ページのデザインの中から、1つの表紙ページのデザインを選択して設定する。また、幹事ユーザは、フォトブックの表紙ページのデザインの情報として、例えば、表紙ページに記載される最大20文字までのフォトブックのタイトル、および、表紙ページの色を設定することができる。 The secretary user selects and sets one or more cover page designs via the instruction input unit 70 on the cover page design setting screen. In the example of FIG. 16, the secretary user selects and sets one cover page design from among the three cover page designs. In addition, the secretary user can set, for example, the title of the photobook up to 20 characters written on the cover page and the color of the cover page as information on the design of the cover page of the photo book.
 表紙ページのデザインが設定された後、「次へ」のボタンが押されると、表紙デザイン設定部32は、幹事ユーザによって設定された表紙ページのデザインの情報を幹事ユーザの端末装置14から取得する(ステップS3)。 After the cover page design is set, when the “Next” button is pressed, the cover design setting unit 32 acquires information on the cover page design set by the secretary user from the terminal device 14 of the secretary user. (Step S3).
 続いて、図17に示すように、寄せ書きデザイン設定部34は、フォトブックの寄せ書きページのデザインを設定する画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as shown in FIG. 17, the draft design setting unit 34 displays a screen for setting the design of the draft page of the photo book on the image display unit 68 of the terminal device 14 of the manager user.
 幹事ユーザは、寄せ書きページのデザインを設定する画面において、指示入力部70を介して、1以上の寄せ書きのデザインを選択して設定する。図17の例では、9件の寄せ書きのデザインの中から、1つの寄せ書きのデザインを選択して設定する。 The secretary user selects and sets one or more draft designs via the instruction input unit 70 on the screen for setting the draft page design. In the example of FIG. 17, one of the nine designs is selected and set.
 寄せ書きページのデザインが設定された後、「次へ」のボタンが押されると、寄せ書きデザイン設定部34は、幹事ユーザによって設定された寄せ書きページのデザインの情報を、幹事ユーザの端末装置14から取得する(ステップS4)。 When the “Next” button is pressed after the layout page design is set, the layout design setting unit 34 acquires information on the layout page design set by the secretary user from the terminal device 14 of the secretary user. (Step S4).
 続いて、図18に示すように、日程設定部36は、画像および寄せ書きメッセージの募集締切日を設定する画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as shown in FIG. 18, the schedule setting unit 36 displays a screen for setting an application and deadline date for the message to be posted on the image display unit 68 of the secretary user's terminal device 14.
 幹事ユーザは、画像および寄せ書きメッセージの募集締切日を設定する画面において、指示入力部70を介して、画像および寄せ書きメッセージの募集締切日を設定する。図18の例では、プルダウンメニューによって、現在の日付から一定期間内の日付の一覧があらかじめ登録されている。幹事ユーザは、プルダウンメニューに登録されている日付の一覧の中から1つの日付、例えば、12月2日を募集締切日として選択して設定する。 The secretary user sets the application deadline date for the image and the message message via the instruction input unit 70 on the screen for setting the application deadline date for the image and the message message. In the example of FIG. 18, a list of dates within a certain period from the current date is registered in advance by a pull-down menu. The secretary user selects and sets one date, for example, December 2, as the application deadline date from the list of dates registered in the pull-down menu.
 画像および寄せ書きメッセージの募集締切日が設定された後、「次へ」のボタンが押されると、日程設定部36は、幹事ユーザによって設定された画像および寄せ書きメッセージの募集締切日の情報を、幹事ユーザの端末装置14から取得する(ステップS5)。 When the “Next” button is clicked after the application deadline date of the image and the message message is set, the schedule setting unit 36 displays the information of the image and message message application deadline date set by the secretary user. Obtained from the user terminal device 14 (step S5).
 続いて、図19に示すように、日程設定部36は、合成画像の作成期間を設定する画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as shown in FIG. 19, the schedule setting unit 36 displays a screen for setting a composite image creation period on the image display unit 68 of the secretary user's terminal device 14.
 幹事ユーザは、合成画像の作成期間を設定する画面において、指示入力部70を介して、合成画像の作成期間を設定する。図19の例では、プルダウンメニューによって、画像および寄せ書きメッセージの募集の期間の締切日から30日以内の日付の一覧があらかじめ登録されている。幹事ユーザは、プルダウンメニューに登録されている日付の一覧の中から1つの日付、例えば、12月4日を選択することによって12月2日~4日を作成期間として設定する。 The secretary user sets the composite image creation period via the instruction input unit 70 on the screen for setting the composite image creation period. In the example of FIG. 19, a list of dates within 30 days from the deadline for the period for recruiting images and written messages is registered in advance by a pull-down menu. The organizer user selects one date, for example, December 4 from the list of dates registered in the pull-down menu, and sets December 2 to 4 as the creation period.
 合成画像の作成期間が設定された後、「次へ」のボタンが押されると、日程設定部36は、幹事ユーザによって設定された合成画像の作成期間の情報を、幹事ユーザの端末装置14から取得する(ステップS5)。 When the “next” button is pressed after the composite image creation period is set, the schedule setting unit 36 receives information on the composite image creation period set by the secretary user from the terminal device 14 of the secretary user. Obtain (step S5).
 続いて、図20に示すように、日程設定部36は、画像商品の配送日を設定する画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as shown in FIG. 20, the schedule setting unit 36 displays a screen for setting the delivery date of the image product on the image display unit 68 of the terminal device 14 of the manager user.
 画像商品の配送日は、日程設定部36により、合成画像の作成期間の締切日から一定の期間の後の日付に自動で設定される。図20の例では、合成画像の作成期間の最終日である12月4日から16日後の12月20日に自動で設定される。 The delivery date of the image product is automatically set by the schedule setting unit 36 to a date after a certain period from the deadline date of the composite image creation period. In the example of FIG. 20, the setting is automatically set on December 20, 16 days after December 4, which is the last day of the composite image creation period.
 幹事ユーザは、画像商品の配送日を設定する画面において、指示入力部70を介して、画像商品の配送日を変更することができる。図20の例では、例えば、追加料金を支払って、特急仕上げを指定することによって、画像商品の配送日を12月20日よりも前の日付に設定することができる。 The secretary user can change the delivery date of the image product via the instruction input unit 70 on the screen for setting the delivery date of the image product. In the example of FIG. 20, the delivery date of the image merchandise can be set to a date before December 20, for example, by paying an additional fee and specifying express finishing.
 画像商品の配送日が設定された後、「次へ」のボタンが押されると、日程設定部36は、画像商品の配送日の情報を取得する(ステップS5)。 When the “next” button is pressed after the delivery date of the image product is set, the schedule setting unit 36 acquires the delivery date information of the image product (step S5).
 従来、複数のユーザの端末装置14から送信された複数の画像を用いて合成画像を作成する場合、幹事ユーザが期限管理を行う必要があり、幹事ユーザの負荷が高かった。これに対し、本実施の形態における画像処理システム10は、期限管理を行うことができるため、幹事ユーザが期限管理を行う必要がなくなり、幹事ユーザの負担を軽減することができる。 Conventionally, when creating a composite image using a plurality of images transmitted from the terminal devices 14 of a plurality of users, it is necessary for the secretary user to perform deadline management, and the burden on the secretary user is high. On the other hand, since the image processing system 10 according to the present embodiment can perform deadline management, it is not necessary for the secretary user to perform deadline management, and the burden on the secretary user can be reduced.
 続いて、図21に示すように、設定保存部38は、画像商材および日程の情報を確認する画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as illustrated in FIG. 21, the setting storage unit 38 displays a screen for confirming information on the image merchandise and the schedule on the image display unit 68 of the terminal device 14 of the manager user.
 幹事ユーザは、画像商材および日程の情報を確認する画面において、画像商材および日程の情報を確認し、その設定でよい場合には、「保存/ログイン」のボタンを押して次の画面へ進み、設定を変更したい場合には、「<」のボタンを押して前の画面に戻る。 The secretary user confirms the image merchandise and schedule information on the screen for confirming the image merchandise and schedule information, and if the settings are acceptable, press the “Save / Login” button to proceed to the next screen. To change the setting, press the “<” button to return to the previous screen.
 「保存/ログイン」のボタンが押されると、図22に示すように、設定保存部38は、幹事ユーザが画像処理システム10へログインするためのアカウント情報を入力する画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 When the “save / login” button is pressed, as shown in FIG. 22, the setting storage unit 38 displays a screen for inputting account information for the secretary user to log in to the image processing system 10. 14 image display units 68.
 幹事ユーザは、画像処理システム10にログインするためのアカウント情報として、指示入力部70を介して、幹事ユーザのメールアドレスおよび幹事パスワードを入力する。幹事ユーザが既に画像処理システム10への会員登録を済ませている場合には、「ログイン」のボタンを押す。また、会員登録後に幹事パスワードを忘れた場合には、「パスワード忘れ」のボタンを押すことによって幹事パスワードを回復するための処理を行う。 The secretary user inputs the email address and secretary password of the secretary user via the instruction input unit 70 as account information for logging in to the image processing system 10. If the secretary user has already registered as a member in the image processing system 10, the “login” button is pressed. If the secretary password is forgotten after member registration, a process for recovering the secretary password is performed by pressing the “forget password” button.
 「ログイン」のボタンが押されると、アカウント情報保存部40は、既に保存されているアカウント情報と、幹事ユーザによって入力されたアカウント情報とを比較する。アカウント情報保存部40が比較した結果、両者が一致した場合に、幹事ユーザは画像処理システム10にログインすることができる。 When the “Login” button is pressed, the account information storage unit 40 compares the account information already stored with the account information input by the managing user. If the account information storage unit 40 compares the two as a result of the comparison, the secretary user can log in to the image processing system 10.
 一方、まだ会員登録を済ませていない場合には、画像処理システム10は、「新規会員登録」のボタンを押すことによって新規に会員登録を行うための処理を行う。「新規会員登録」のボタンが押されると、アカウント情報保存部40は、幹事ユーザによって入力されたメールアドレスおよび幹事パスワードを取得し、幹事ユーザのアカウント情報として保存する。幹事ユーザの端末装置14は、会員登録の完了後、画像処理システム10へログインすることができる。 On the other hand, if the member registration has not been completed yet, the image processing system 10 performs a process for newly registering a member by pressing a “new member registration” button. When the “new member registration” button is pressed, the account information storage unit 40 acquires the e-mail address and secretary password input by the secretary user, and stores them as account information of the secretary user. The secretary user's terminal device 14 can log in to the image processing system 10 after completing the membership registration.
 続いて、設定保存部38は、商材取得部30によって取得された画像商材、および、日程設定部36によって取得された日程の情報を保存する。 Subsequently, the setting storage unit 38 stores the image product acquired by the product acquisition unit 30 and the schedule information acquired by the schedule setting unit 36.
 続いて、図23に示すように、設定保存部38は、幹事ユーザのログインと、画像商材および日程の情報の保存とが完了したことを表す画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as illustrated in FIG. 23, the setting storage unit 38 displays a screen indicating that the log-in of the secretary user and the storage of the image merchandise information and the schedule information has been completed. This is displayed on the part 68.
 続いて、管理画面情報送付部42は、管理画面にアクセスするためのURLを含むメッセージを送付する。また、このメッセージは、画像商材および日程の情報が保存されたことを表す通知を含む。 Subsequently, the management screen information sending unit 42 sends a message including a URL for accessing the management screen. This message also includes a notification indicating that the image merchandise and schedule information have been saved.
 また、図23の例では、管理画面情報送付部42は、指示入力部70を介して幹事ユーザだけでなく幹事ユーザ以外の参加ユーザのメールアドレスを入力することによって、幹事ユーザ以外の参加ユーザ、例えば、幹事ユーザの代理を務める副幹事ユーザのメールアドレス等にも管理画面にアクセスするためのURLを含むメッセージを送付することができる。 In the example of FIG. 23, the management screen information sending unit 42 inputs the email addresses of participating users other than the managing user as well as the managing user via the instruction input unit 70, thereby participating users other than the managing user, For example, a message including a URL for accessing the management screen can be sent to the e-mail address of the deputy secretary user acting on behalf of the secretary user.
 続いて、「次へ」のボタンが押されると、図24に示すように、アップロード催促部44は、参加ユーザの端末装置14へ送付する招待状を作成するための画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 Subsequently, when the “next” button is pressed, as shown in FIG. 24, the upload prompting unit 44 displays a screen for creating an invitation to be sent to the terminal device 14 of the participating user as a terminal of the managing user. The image is displayed on the image display unit 68 of the device 14.
 幹事ユーザは、招待状を作成するための画面において、指示入力部70を介して、招待状に含めるメッセージを一定文字以内、図24の例では、150文字以内で入力する。また、図24の例では、「みんなの写真とメッセージでフォトブックを贈ろうよ!」という初期メッセージが自動で入力されている。これにより、幹事ユーザがメッセージを入力する手間を省くことができる。幹事ユーザは、初期メッセージをそのまま使用してもよいし、他のメッセージを入力してもよい。 The secretary user inputs a message to be included in the invitation via the instruction input unit 70 within a certain number of characters on the screen for creating an invitation within 150 characters in the example of FIG. In the example of FIG. 24, an initial message “Let's give a photo book with everyone's photos and messages!” Is automatically input. As a result, it is possible to save the manager user from inputting a message. The secretary user may use the initial message as it is, or may input another message.
 「次へ」のボタンが押されると、アップロード催促部44は、招待状に含めるメッセージの情報を取得し、招待状を作成する(ステップS6)。 When the “Next” button is pressed, the upload prompting unit 44 acquires message information to be included in the invitation and creates an invitation (step S6).
 続いて、図25に示すように、アップロード催促部44は、招待状の内容を確認するための画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as shown in FIG. 25, the upload prompting unit 44 displays a screen for confirming the contents of the invitation on the image display unit 68 of the terminal device 14 of the manager user.
 幹事ユーザは、招待状の内容を確認するための画面において、招待状の内容を確認し、その内容でよい場合には、「招待状送付画面へ」のボタンを押して次の画面へ進み、内容を変更したい場合には、「<」のボタンを押して前の画面に戻る。 The secretary user confirms the contents of the invitation on the screen for confirming the contents of the invitation, and if the contents are acceptable, the button for "Invitation Sending Screen" is pushed to the next screen, and the contents If you want to change, press the “<” button to return to the previous screen.
 「招待状送付画面へ」のボタンが押されると、図26に示すように、アップロード催促部44は、招待状を参加ユーザの端末装置14へ送付するための画面を、幹事ユーザの端末装置14の画像表示部68に表示する。 When the button “to invitation sending screen” is pressed, as shown in FIG. 26, the upload prompting unit 44 displays a screen for sending an invitation to the terminal device 14 of the participating user. Is displayed on the image display unit 68.
 幹事ユーザは、招待状を送付するための画面において、指示入力部70を介して、招待状を送付する手段を選択する。図26の例では、幹事ユーザは、招待状を送付する手段として、SNSのメッセージまたは電子メールを選択する。招待状は、「SNS」のボタンが押された場合、SNSのメッセージとして参加ユーザのSNSのアカウントに送付され、「メール」のボタンが押された場合、電子メールによって参加ユーザのメールアドレスに送付される。 The secretary user selects a means for sending the invitation via the instruction input unit 70 on the screen for sending the invitation. In the example of FIG. 26, the secretary user selects an SNS message or e-mail as means for sending an invitation. The invitation is sent to the participating user's SNS account as an SNS message when the “SNS” button is pressed, and sent to the participating user's email address by e-mail when the “mail” button is pressed. Is done.
 幹事ユーザは、合成画像の作成に関わる全ての参加ユーザに対して招待状を送付してもよいし、一部の参加ユーザのみに対して招待状を送付してもよい。 The secretary user may send invitations to all participating users involved in the creation of the composite image, or may send invitations only to some participating users.
 SNSのメッセージまたは電子メールには、招待状の他、合成画像で使用される画像、画像の評価情報、寄せ書きメッセージ等を参加ユーザがアップロードする画面にアクセスするための招待用URL、および、共通パスワード、図26の例では、「5865」が含まれている。 In addition to invitations, SNS messages or e-mails include invitations to access images used for composite images, image evaluation information, message postings, etc., and a common password. In the example of FIG. 26, “5865” is included.
 「次へ」のボタンが押されると、アップロード催促部44は、招待状を参加ユーザの端末装置14へ送付する(ステップS7)。 When the “Next” button is pressed, the upload prompting unit 44 sends an invitation to the terminal device 14 of the participating user (step S7).
 参加ユーザは、招待状を参加ユーザの端末装置14において受け取り、指示入力部70を介して、招待用URLで示されるウェブサイトにアクセスする。 The participating user receives the invitation at the terminal device 14 of the participating user and accesses the website indicated by the invitation URL via the instruction input unit 70.
 参加ユーザが招待用URLで示されるウェブサイトにアクセスすると、図27に示すように、アップロード催促部44は、参加ユーザが受け取った招待状を表す画面を、参加ユーザの端末装置14の画像表示部68に表示する(ステップS8)。 When the participating user accesses the website indicated by the invitation URL, as shown in FIG. 27, the upload prompting unit 44 displays a screen representing the invitation received by the participating user on the image display unit of the terminal device 14 of the participating user. 68 (step S8).
 招待状には、幹事ユーザからのメッセージの他、参加ユーザへの要望として、合成画像において使用する画像および寄せ書きメッセージをアップロードすること、および、その募集締切日等の情報、本実施形態の場合、12月2日(水)の23:59が表示される。 In the invitation, in addition to the message from the secretary user, as a request to the participating users, uploading the image used in the composite image and the message message, and information such as the application deadline, in the case of this embodiment, December 2 (Wednesday) 23:59 is displayed.
 参加ユーザは、招待状を表す画面を閲覧して、幹事ユーザから参加ユーザへの要望が、フォトブックにする画像および寄せ書きメッセージのアップロードであり、その募集締切日が、12月2日であることを理解する。 Participating users browse the screen showing the invitation, and the request from the managing user to the participating users is to upload an image to be a photo book and a message to be posted, and the application deadline is December 2 To understand the.
 続いて、「利用規約に同意する」のチェックボックスがチェックされ、「次へ」のボタンが押されると、図28に示すように、アカウント情報保存部40は、合成画像において使用される画像、画像の評価情報、寄せ書きメッセージ等を参加ユーザがアップロードする画面にアクセスするための共通パスワードを入力するための画面を、参加ユーザの端末装置14の画像表示部68に表示する。 Subsequently, when the “I agree to the terms of use” check box is checked and the “Next” button is pressed, as shown in FIG. 28, the account information storage unit 40 displays an image used in the composite image, A screen for inputting a common password for accessing the screen on which the participating user uploads the evaluation information of the image, the written message, and the like is displayed on the image display unit 68 of the terminal device 14 of the participating user.
 参加ユーザは、共通パスワードを入力するための画面において、指示入力部70を介して、受け取った招待状に含まれている共通パスワード、図28の例では、「5865」を入力する。 The participating user inputs the common password included in the received invitation, “5865” in the example of FIG. 28, via the instruction input unit 70 on the screen for inputting the common password.
 共通パスワードが入力され、「次へ」のボタンが押されると、図29に示すように、アカウント情報保存部40は、新規な参加ユーザを登録するための画面を、参加ユーザの端末装置14の画像表示部68に表示する。 When the common password is input and the “Next” button is pressed, as shown in FIG. 29, the account information storage unit 40 displays a screen for registering a new participating user on the terminal device 14 of the participating user. The image is displayed on the image display unit 68.
 新規な参加ユーザを登録するための画面には、既に参加ユーザとして登録済みのユーザ(現在の参加メンバー)の名前が表示される。登録済みの参加ユーザの名前を表示することは必須ではない。しかし、登録済みの参加ユーザの名前を表示することによって、ユーザが新規に参加ユーザとして登録する場合に、自分が知っている名前が登録済みの参加ユーザの名前の中にあれば、安心して登録を行うことができる。 The name of a user who has already been registered as a participating user (current participating member) is displayed on the screen for registering a new participating user. It is not essential to display the names of registered participating users. However, by displaying the names of registered participating users, if a user newly registers as a participating user, if the name that he / she knows is in the registered participating user's name, he / she can register with confidence. It can be performed.
 参加ユーザは、まだ参加ユーザとして画像処理システム10に登録していない場合、「新規登録」のボタンを押し、既に参加ユーザとして登録済みの場合には、「内容修正」のボタンを押す。 The participating user presses the “new registration” button if he / she has not yet registered as a participating user in the image processing system 10, and presses the “content modification” button if he / she has already been registered as a participating user.
 「新規登録」のボタンが押されると、図30に示すように、アカウント情報保存部40は、参加ユーザとして登録する名前および個別パスワード(図30では「秘密のコトバ」と表示される)を登録するための画面を、参加ユーザの端末装置14の画像表示部68に表示する。 When the “new registration” button is pressed, as shown in FIG. 30, the account information storage unit 40 registers the name and individual password (displayed as “secret password” in FIG. 30) to be registered as a participating user. A screen for this is displayed on the image display unit 68 of the terminal device 14 of the participating user.
 参加ユーザは、指示入力部70を介して、名前として本名またはニックネームを入力し、秘密のコトバとして任意の文字列を入力する。 The participating user inputs a real name or a nickname as a name via the instruction input unit 70, and inputs an arbitrary character string as a secret word.
 参加ユーザの名前および秘密のコトバは、参加ユーザのアカウント情報となる。参加ユーザは、図29に示すように、新規な参加ユーザを登録するための画面において、「内容修正」のボタンを押し、既に登録済みの名前および秘密のコトバを入力することによって、既にアップロードした画像、画像の評価情報、寄せ書きメッセージ等を修正することができる。 The name of the participating user and the secret word are the account information of the participating user. As shown in FIG. 29, the participating user has already uploaded by pressing the “modify content” button on the screen for registering a new participating user, and inputting the registered name and secret password. It is possible to correct the image, the image evaluation information, the written message, and the like.
 参加ユーザの名前および秘密のコトバが入力され、「次へ」のボタンが押されると、アカウント情報保存部40は、その参加ユーザの名前および秘密のコトバを取得し、参加ユーザのアカウント情報として保存する。 When the name of the participating user and the secret password are input and the “Next” button is pressed, the account information storage unit 40 acquires the name of the participating user and the secret password and saves it as the account information of the participating user. To do.
 続いて、図31に示すように、画像取得部46は、参加ユーザがアップロードする画像を選択するための画面を、参加ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as illustrated in FIG. 31, the image acquisition unit 46 displays a screen for selecting an image to be uploaded by the participating user on the image display unit 68 of the terminal device 14 of the participating user.
 参加ユーザは、アップロードする画像を選択するための画面において、「画像追加」のボタンを押すことによって、アップロードする画像を選択することができる。アップロードする画像を選択するための画面には、参加ユーザによって選択された画像の枚数が表示される。 Participating users can select an image to upload by pressing the “add image” button on the screen for selecting an image to upload. The number of images selected by the participating users is displayed on the screen for selecting an image to be uploaded.
 アップロードする画像が選択された後、「次へ」のボタンが押されると、画像取得部46は、参加ユーザからアップロードされた画像、つまり、参加ユーザの端末装置14から投稿された画像を取得する(ステップS9)。このように、画像取得部46は、2以上の参加ユーザの端末装置14から送信された複数の画像を取得する。また、画像取得部46によって画像が取得される毎に、画像解析部58は画像の解析を行い、評価値算出部60は、画像の解析結果に基づいて画像の解析評価値を算出する(ステップS10)。 When the “next” button is pressed after an image to be uploaded is selected, the image acquisition unit 46 acquires an image uploaded from the participating user, that is, an image posted from the terminal device 14 of the participating user. (Step S9). As described above, the image acquisition unit 46 acquires a plurality of images transmitted from the terminal devices 14 of two or more participating users. Each time an image is acquired by the image acquisition unit 46, the image analysis unit 58 analyzes the image, and the evaluation value calculation unit 60 calculates an analysis evaluation value of the image based on the analysis result of the image (step). S10).
 続いて、図32に示すように、評価情報取得部48は、2以上の参加ユーザの端末装置14から送信された複数の画像の各々を評価するための画面を、参加ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as illustrated in FIG. 32, the evaluation information acquisition unit 48 displays a screen for evaluating each of a plurality of images transmitted from the terminal devices 14 of two or more participating users. The image is displayed on the image display unit 68.
 参加ユーザは、各々の画像を評価するための画面において、指示入力部70を介して、各々の画像に対して高評価または低評価を表す評価情報を付与することができる。例えば、参加ユーザは、各々の画像を閲覧し、自分が好きな画像に対して、「いいね」のボタンを押すことによって高評価を表す評価情報を付与し、嫌いな画像に対して、「いまいち」のボタンを押すことによって低評価を表す評価情報を付与することができる。 Participating users can give evaluation information indicating high evaluation or low evaluation to each image via the instruction input unit 70 on a screen for evaluating each image. For example, a participating user browses each image, gives evaluation information indicating high evaluation by pressing a “like” button to an image he / she likes, and gives “ Evaluation information indicating low evaluation can be given by pressing the “Imaichi” button.
 各々の参加ユーザの端末装置14から各々の画像に対して高評価および低評価を表す評価情報が付与されると、評価情報取得部48は、各々の画像に対して付与された高評価および低評価を表す評価情報を、参加ユーザの端末装置14から取得する(ステップS11)。 When evaluation information representing high evaluation and low evaluation is given to each image from the terminal device 14 of each participating user, the evaluation information acquisition unit 48 gives the high evaluation and low evaluation given to each image. Evaluation information representing the evaluation is acquired from the terminal device 14 of the participating user (step S11).
 評価情報が付与された後、「次へ」のボタンが押されると、図33に示すように、メッセージ取得部50は、寄せ書きページがフォトブックの巻末に入ることを通知する画面を、参加ユーザの端末装置14の画像表示部68に表示する。 When the “next” button is pressed after the evaluation information is given, as shown in FIG. 33, the message acquisition unit 50 displays a screen for notifying that the grouped page enters the end of the photo book as a participating user. Displayed on the image display unit 68 of the terminal device 14.
 参加ユーザは、寄せ書きページがフォトブックの巻末に入ることを通知する画面を閲覧して確認する。 Participating users browse and confirm the screen that informs them that the message page will be at the end of the photo book.
 続いて、「次へ」のボタンが押されると、図34に示すように、メッセージ取得部50は、寄せ書きページにおいて使用する参加ユーザのプロフィール画像を設定するための画面を、参加ユーザの端末装置14の画像表示部68に表示する。 Subsequently, when the “next” button is pressed, as shown in FIG. 34, the message acquisition unit 50 displays a screen for setting the participating user's profile image to be used in the postscript page as a terminal device of the participating user. 14 image display units 68.
 参加ユーザは、プロフィール画像を設定するための画面において、指示入力部70を介して、参加ユーザが参加ユーザの端末装置14において所有する画像の中からプロフィール画像として使用する画像を選択して設定することができる。また、参加ユーザは、「削除」のボタンを押すことによって、既に設定したプロフィール画像を削除し、再度、プロフィール画像を設定し直すことができる。 In the screen for setting the profile image, the participating user selects and sets an image to be used as the profile image from the images owned by the participating user in the terminal device 14 of the participating user via the instruction input unit 70. be able to. In addition, the participating user can delete the already set profile image by pressing the “delete” button and set the profile image again.
 参加ユーザがプロフィール画像を設定した後、「次へ」のボタンが押されると、画像取得部46は、参加ユーザによって設定されたプロフィール画像を、参加ユーザの端末装置14から取得する(ステップS12)。 When the “next” button is pressed after the participating user sets the profile image, the image acquisition unit 46 acquires the profile image set by the participating user from the terminal device 14 of the participating user (step S12). .
 続いて、図35に示すように、メッセージ取得部50は、寄せ書きメッセージを入力するための画面を、参加ユーザの端末装置14の画像表示部68に表示する。 Subsequently, as shown in FIG. 35, the message acquisition unit 50 displays a screen for inputting a message to the image display unit 68 of the terminal device 14 of the participating user.
 参加ユーザは、寄せ書きメッセージを入力するための画面において、指示入力部70を介して、寄せ書きページに含めるメッセージを150文字以内で入力する。図35の例では、「結婚おめでとう。 … 幸せになってください。」という初期メッセージが自動で入力されている。これにより、参加ユーザがメッセージを入力する手間を省くことができる。参加ユーザは、初期メッセージをそのまま使用してもよいし、他のメッセージを入力してもよい。 Participating users input a message to be included in the writing page within 150 characters via the instruction input unit 70 on the screen for inputting the writing message. In the example of FIG. 35, an initial message “Congratulations on marriage ... Please be happy” is automatically input. As a result, it is possible to save time and effort for the participating users to input messages. The participating user may use the initial message as it is or may input another message.
 また、参加ユーザは、寄せ書きメッセージを入力するための画面において、「他の人の寄せ書きを見る」のボタンを押すことによって、他の参加ユーザが既にアップロードした寄せ書きメッセージを閲覧することができる。 In addition, the participating user can view the message that has already been uploaded by the other participating users by pressing the “view other people's message” button on the screen for inputting the message.
 参加ユーザが寄せ書きメッセージを入力した後、「入力完了」のボタンが押されると、図36に示すように、メッセージ取得部50は、参加ユーザが入力した寄せ書きメッセージを確認するための画面を、参加ユーザの端末装置14の画像表示部68に表示する。 When the “input complete” button is pressed after the participating user inputs the message message, as shown in FIG. 36, the message acquisition unit 50 displays a screen for confirming the message message input by the participating user. The image is displayed on the image display unit 68 of the user terminal device 14.
 参加ユーザは、寄せ書きメッセージを確認する画面において、寄せ書きメッセージを閲覧して確認し、そのメッセージでよい場合には、「投稿する」のボタンを押して次の画面へ進み、メッセージを変更したい場合には、「<」のボタンを押して前の画面に戻る。 Participating users browse and confirm the message in the message confirmation screen, and if that message is acceptable, press the “Post” button to go to the next screen. If you want to change the message , Press the “<” button to return to the previous screen.
 「投稿する」のボタンが押されると、メッセージ取得部50は、参加ユーザから投稿された寄せ書きメッセージ、つまり、参加ユーザの端末装置14からアップロードされた寄せ書きメッセージを取得する(ステップS13)。 When the “Post” button is pressed, the message acquisition unit 50 acquires the message posted by the participating user, that is, the message uploaded from the terminal device 14 of the participating user (step S13).
 このように、複数のユーザの画像を用いてフォトブック等の合成画像を作成する場合に、フォトブックの本編ページだけでなく、寄せ書きページを含めることによって、フォトブックの受取人に対する各々の参加ユーザの気持ちを寄せ書きメッセージとして伝えることができる。 In this way, when a composite image such as a photo book is created using images of a plurality of users, each participating user with respect to the recipient of the photo book includes not only the main page of the photo book but also a miscellaneous page. You can convey your feelings as a message.
 続いて、図37に示すように、寄せ書きメッセージの投稿が完了したことを表す画面が、参加ユーザの端末装置14の画像表示部68に表示される。 Subsequently, as shown in FIG. 37, a screen indicating that the posting of the message has been completed is displayed on the image display unit 68 of the terminal device 14 of the participating user.
 続いて、「完了」のボタンが押されると、画像、画像の評価情報および寄せ書きメッセージのアップロードは完了する。 Subsequently, when the “Finish” button is pressed, the upload of the image, the image evaluation information, and the postscript message is completed.
 続いて、日程設定部36が画像および寄せ書きメッセージの募集締切日を過ぎたことを検出すると、画像数算出部52は、画像取得部46によって取得された画像の数を算出する(ステップS14)。また、評価数算出部54は、評価情報取得部48によって取得された高評価および低評価を表す評価情報の数を算出し(ステップS15)、メッセージ数算出部56は、メッセージ取得部50によって取得された寄せ書きメッセージの数を算出する(ステップS16)。 Subsequently, when the schedule setting unit 36 detects that the deadline for recruiting images and messages has passed, the image number calculation unit 52 calculates the number of images acquired by the image acquisition unit 46 (step S14). Further, the evaluation number calculation unit 54 calculates the number of evaluation information indicating high evaluation and low evaluation acquired by the evaluation information acquisition unit 48 (step S15), and the message number calculation unit 56 is acquired by the message acquisition unit 50. The number of posted messages is calculated (step S16).
 続いて、評価値算出部60は、各々の画像に対する高評価および低評価を表す評価情報、例えば、評価情報の数に基づいて、各々の画像の解析評価値に対して値を加減算し、各々の画像の総合評価値を算出する(ステップS17)。 Subsequently, the evaluation value calculation unit 60 adds or subtracts a value to or from an analysis evaluation value of each image based on evaluation information indicating high evaluation and low evaluation for each image, for example, the number of evaluation information, The overall evaluation value of the image is calculated (step S17).
 前述のように、画像が取得される毎に、画像を解析して、その解析評価値を算出することは必須ではない。しかし、画像が取得される毎に、画像を解析して、その解析評価値を算出しておくことにより、全ての画像を取得した後に画像をまとめて解析して解析評価値を算出する場合と比べて、画像の総合評価値を短時間で算出することができ、その結果、合成画像の作成にかかる時間を短縮することができる。 As described above, every time an image is acquired, it is not essential to analyze the image and calculate the analysis evaluation value. However, every time an image is acquired, by analyzing the image and calculating its analysis evaluation value, after acquiring all the images, the image is analyzed and the analysis evaluation value is calculated. In comparison, the overall evaluation value of the image can be calculated in a short time, and as a result, the time required for creating the composite image can be shortened.
 続いて、幹事ユーザは、幹事ユーザの端末装置14において、指示入力部70を介して、合成画像作成部26に対して合成画像の作成を指示する。 Subsequently, the secretary user instructs the composite image creation unit 26 to create a composite image via the instruction input unit 70 in the terminal device 14 of the secretary user.
 合成画像作成部26に対して合成画像の作成が指示されると、表紙作成部62は、表紙ページのデザインの情報に対応するデザインであり、幹事ユーザによって設定されたタイトルが記載され、幹事ユーザによって設定された色の表紙ページを作成する(ステップS18)。 When the composite image creation unit 26 is instructed to create a composite image, the cover creation unit 62 has a design corresponding to the design information of the cover page, the title set by the secretary user is described, and the secretary user A cover page of the color set by is created (step S18).
 続いて、本編作成部64は、画像取得部46によって取得された複数の画像のうちの少なくとも1つの画像を用いて、フォトブックの本編ページを作成する(ステップS19)。 Subsequently, the main part creation unit 64 creates a main part page of the photobook using at least one of the plurality of images acquired by the image acquisition unit 46 (step S19).
 本編作成部64の画像分割部88は、画像取得部46によって取得された複数の画像を、本編ページのページ数に対応する複数のグループに分割する。 The image dividing unit 88 of the main creation unit 64 divides the plurality of images acquired by the image acquisition unit 46 into a plurality of groups corresponding to the number of pages of the main page.
 続いて、画像抽出部90は、画像のグループ毎に、画像の総合評価値に基づいて、例えば、総合評価値が最も高い画像から順に、グループに含まれる画像の中から、本編ページにおいて使用する複数の合成対象画像を抽出する。 Subsequently, the image extraction unit 90 uses, for each group of images, in the main page from the images included in the group, for example, in order from the image having the highest comprehensive evaluation value, based on the comprehensive evaluation value of the image. A plurality of compositing target images are extracted.
 続いて、画像配置部92は、画像のグループ毎に、画像の総合評価値に基づいて、各々の合成対象画像のサイズおよび本編ページにおける配置位置を決定し、合成対象画像が、各々対応する本編ページに配置される。例えば、本編ページに配置される複数の合成対象画像のうち、総合評価値が最も高い合成対象画像が、他の合成対象画像よりも大きいサイズで、そのページの中央位置に配置される。 Subsequently, the image placement unit 92 determines the size of each compositing target image and the placement position in the main page based on the overall evaluation value of the image for each group of images, and the compositing target image has a corresponding main part. Placed on the page. For example, among the plurality of compositing target images arranged on the main page, the compositing target image having the highest overall evaluation value is arranged at the center position of the page with a size larger than the other compositing target images.
 続いて、寄せ書き作成部66は、参加ユーザのプロフィール画像および寄せ書きメッセージを用いて、寄せ書きページのデザインの情報に対応するデザインの寄せ書きページを作成する(ステップS20)。 Subsequently, the draft creation unit 66 creates a draft page with a design corresponding to the information on the design of the draft page using the profile images of the participating users and the draft message (step S20).
 寄せ書き作成部66のメッセージ分割部94は、メッセージ取得部50によって取得された寄せ書きメッセージを、寄せ書きページのページ数に対応する数のグループに分割する。 The message division unit 94 of the message creation unit 66 divides the message by the message acquisition unit 50 into a number of groups corresponding to the number of pages to be edited.
 続いて、メッセージ配置部96は、寄せ書きメッセージのグループ毎に、寄せ書きメッセージのグループに対応するページの寄せ書きページに配置して寄せ書きページを作成する。例えば、メッセージ配置部96は、グループに含まれる寄せ書きメッセージと対応する参加ユーザのプロフィール画像とを組み合わせて配置する。各々の寄せ書きページにおいて、例えば、メッセージ配置部96は、寄せ書きメッセージを、寄せ書きメッセージがアップロードされた順序で順次配置する。 Subsequently, the message placement unit 96 creates a page for each group of overwritten messages by placing it on the overwritten page of the page corresponding to the group of overwritten messages. For example, the message arrangement unit 96 arranges the grouped message included in the group and the corresponding participating user's profile image. On each page, for example, the message placement unit 96 sequentially places the handwritten messages in the order in which the handwritten messages are uploaded.
 上記のように、表紙作成部62は、表紙ページのデザインの情報に対応する表紙ページを自動で作成する。また、本編作成部64は、2以上の参加ユーザの端末装置14から取得した複数の画像を用いて、本編ページを自動で作成する。また、寄せ書き作成部66は、参加ユーザのプロフィール画像および寄せ書きメッセージを用いて、寄せ書きページのデザインの情報に対応するデザインの寄せ書きページを自動で作成する。このようにして、合成画像作成部26は、表紙ページのデザインの情報に対応する表紙ページ、本編ページ、および、寄せ書きページのデザインの情報に対応する寄せ書きページを含むフォトブックを自動で作成する。 As described above, the cover creation unit 62 automatically creates a cover page corresponding to the cover page design information. The main part creation unit 64 automatically creates a main part page using a plurality of images acquired from the terminal devices 14 of two or more participating users. Further, the group creation unit 66 automatically creates a group page with a design corresponding to the information about the design of the group page using the profile images of the participating users and the group message. In this manner, the composite image creation unit 26 automatically creates a photo book including a cover page corresponding to the cover page design information, a main page, and a page layout corresponding to the page layout design information.
 画像処理システム10では、本編ページだけでなく、寄せ書きページを含むフォトブック等の合成画像を作成することができる。また、画像の総合評価値に基づいて、本編ページにおいて使用する画像の他、各々の画像のサイズおよび本編ページにおける配置位置等を決定することによって、画像の良し悪しだけでなく、複数の参加ユーザの好みを反映した合成画像を作成することができる。 In the image processing system 10, it is possible to create a composite image such as a photo book including not only the main part page but also a page for writing. In addition to the image used on the main page, the size of each image and the arrangement position on the main page are determined based on the overall evaluation value of the image, so that not only the quality of the image but also a plurality of participating users It is possible to create a composite image reflecting the preferences of the user.
 幹事ユーザは、幹事ユーザの端末装置14において、自動で作成された表紙ページ、本編ページおよび寄せ書きページからなるフォトブックの各ページを閲覧する。幹事ユーザは、自動で作成されたフォトブックをそのまま採用してもよいし、各ページの内容、例えば、各ページにおいて使用する画像、画像のサイズ、画像および寄せ書きメッセージの配置位置等を編集してもよい。また、幹事ユーザは、コメントの追加、スタンプ画像の追加、各ページの背景の種類および色の変更等を行うことができる。 The secretary user browses each page of the photo book including the cover page, the main part page, and the handwritten page automatically created on the terminal unit 14 of the secretary user. The secretary user may adopt the automatically created photobook as it is, or edit the contents of each page, for example, the image used on each page, the size of the image, the position of the image and the overwriting message, etc. Also good. The secretary user can add a comment, add a stamp image, change the background type and color of each page, and the like.
 幹事ユーザは、日程設定部36によって設定された合成画像の作成期間内、本実施形態の場合、12月4日までにフォトブックの編集を完了し、作成を完了したフォトブックの内容で画像商品を注文する(ステップS21)。幹事ユーザが注文する画像商品には、紙媒体のフォトブックおよび電子データのフォトブックの少なくとも一方が含まれる。 In the case of the present embodiment, the secretary user completes the editing of the photo book by December 4th in the case of the composite image creation period set by the schedule setting unit 36, and the image product with the contents of the created photo book is completed. Is ordered (step S21). The image merchandise ordered by the secretary user includes at least one of a paper photobook and electronic data photobook.
 画像商品が注文されると、注文された画像商品のフォトブックが作成され、日程設定部36によって設定された画像商品の配送日、本実施形態の場合、12月20日までに配送先へ送付される(ステップS22)。紙媒体のフォトブックの場合には、例えば、紙媒体のフォトブックが配送先へ送付され、電子データのフォトブックの場合には、例えば、電子データのフォトブック、あるいは電子データをダウンロードするためのURL等が配送先のメールアドレスへ送付される。 When an image product is ordered, a photo book of the ordered image product is created and sent to the delivery destination by the delivery date of the image product set by the schedule setting unit 36, in this embodiment, by December 20th. (Step S22). In the case of a paper photobook, for example, a paper photobook is sent to a delivery destination. In the case of an electronic data photobook, for example, an electronic data photobook or for downloading electronic data. A URL etc. is sent to the mail address of the delivery destination.
 以上のように、画像処理システム10では、複数の参加ユーザの端末装置14から取得された複数の画像および寄せ書きメッセージを用いて、寄せ書きページを含むフォトブック等の合成画像を作成することができる。 As described above, the image processing system 10 can create a composite image such as a photobook including a page by using a plurality of images and a message from the plurality of participating users.
 また、上記のように、複数の参加ユーザが所有する複数の画像の中から抽出された合成対象画像を用いてフォトブックが作成され、作成されたフォトブックが配送先へ送付されると、フォトブックの受取人は、画像処理システム10を利用して、受取人が所有する第1画像群のうち、フォトブックに写っている人物の画像を用いて、受け取ったフォトブックとは別の合成画像を作成することができる。 In addition, as described above, a photo book is created using images to be combined extracted from a plurality of images owned by a plurality of participating users, and when the created photo book is sent to a delivery destination, The recipient of the book uses the image processing system 10 to use a composite image that is different from the received photobook, using an image of a person in the photobook from the first image group owned by the recipient. Can be created.
 以下の説明において、受取人は、受け取ったフォトブック等の第1合成画像に基づいて、画像付きのポストカード等の第2合成画像を作成するものとする。また、受取人が第1合成画像を受け取った後も、画像処理システム10には、第1合成画像に関する各種の情報が保持されているものとする。 In the following description, it is assumed that the recipient creates a second composite image such as a postcard with an image based on the received first composite image such as a photo book. Further, even after the recipient receives the first composite image, it is assumed that the image processing system 10 holds various types of information regarding the first composite image.
 第2合成画像を作成する場合、まず、図38に示すように、第1合成画像取得部98は、第2合成画像として、画像付きのポストカードを作成することを知らせる画面を、受取人の端末装置14の画像表示部68に表示する。 When creating the second composite image, first, as shown in FIG. 38, the first composite image acquisition unit 98 displays a screen informing that the postcard with the image is created as the second composite image. The image is displayed on the image display unit 68 of the terminal device 14.
 受取人は、第2合成画像を作成することを知らせる画面において、「次へ」のボタンを押し、指示入力部70を介して、第1合成画像として、受取人が受け取ったフォトブックを指定する。 On the screen informing that the second composite image is to be created, the recipient presses the “Next” button and designates the photobook received by the recipient as the first composite image via the instruction input unit 70. .
 受取人によって第1合成画像が指定されると、続いて、第1合成画像取得部98は、受取人の端末装置14から、受取人が所有する第1合成画像を取得する(ステップS23)。 When the first composite image is designated by the recipient, the first composite image acquisition unit 98 subsequently acquires the first composite image owned by the recipient from the terminal device 14 of the recipient (step S23).
 続いて、画像解析部58は、第1合成画像の内容、つまり、第1合成画像において使用されている各々の画像の内容を解析する(ステップS24)。 Subsequently, the image analysis unit 58 analyzes the content of the first composite image, that is, the content of each image used in the first composite image (step S24).
 続いて、人物特定部82は、第1合成画像の解析結果に基づいて、第1合成画像に写っている複数の人物を特定する(ステップS25)。 Subsequently, the person specifying unit 82 specifies a plurality of persons shown in the first composite image based on the analysis result of the first composite image (step S25).
 続いて、図39に示すように、指定人物受付部84は、第1合成画像に写っている複数の人物の中から指定人物として1以上の人物を指定するための画面を、受取人の端末装置14の画像表示部68に表示する。 Subsequently, as shown in FIG. 39, the designated person receiving unit 84 displays a screen for designating one or more persons as designated persons from among a plurality of persons shown in the first composite image. The image is displayed on the image display unit 68 of the device 14.
 受取人は、人物を指定する画面において、指示入力部70を介して、第1合成画像に写っている複数の人物の中から、第2合成画像において使用したい人物、つまり、第2合成画像の作成において使用する画像に写っている1以上の人物(指定人物)を指定する。 The recipient designates a person who wants to use the second composite image from among a plurality of persons shown in the first composite image via the instruction input unit 70 on the screen for designating the person, that is, the second composite image. One or more persons (designated persons) appearing in an image used for creation are designated.
 受取人は、例えば、人物を指定する画面において、指示入力部70を介して、第1合成画像に写っている複数の人物の中から、第2合成画像において使用したい人物の顔画像をチェック状態とすることにより、指定人物を指定する。図39の例の場合、受取人は、第1合成画像に写っているAさん、Bさん、Cさん、Dさん、…を含む複数の人物の中から、AさんおよびBさんの二人を指定人物として指定している。 For example, the recipient checks the face image of the person he wants to use in the second composite image from the plurality of persons shown in the first composite image via the instruction input unit 70 on the screen for designating the person. To designate a designated person. In the case of the example in FIG. 39, the recipients are two persons A and B from a plurality of persons including A, B, C, D,. Designated as a designated person.
 なお、受取人は、人物を指定する画面において、例えば、人物の顔画像が表示されている領域を上下にスワイプすることにより、表示されていない他の人物の顔画像を表示させて指定することができる。また、「全指定」のボタンを押すことにより、第1合成画像に写っている全ての人物を指定することができる。また、「全解除」のボタンを押すことにより、全ての人物の指定を解除して初めからやり直すことができる。 In the screen for specifying a person, the recipient may specify the face image of another person who is not displayed by swiping up and down the area where the face image of the person is displayed, for example. Can do. Further, by pressing the “specify all” button, all persons appearing in the first composite image can be specified. Also, by pressing the “release all” button, it is possible to cancel the designation of all persons and start over.
 「次へ」のボタンが押されると、続いて、指定人物受付部84は、受取人によって指定された1以上の人物の指定を受け付ける(ステップS26)。 When the “Next” button is pressed, the designated person accepting unit 84 accepts designation of one or more persons designated by the recipient (step S26).
 人物の指定が受け付けられると、続いて、図40に示すように、第1画像群保持部102は、受取人が所有する第1画像群を指定するための画面を、受取人の端末装置14の画像表示部68に表示する。 When the designation of the person is accepted, the first image group holding unit 102 subsequently displays a screen for designating the first image group owned by the recipient as shown in FIG. Is displayed on the image display unit 68.
 図40の例の場合、第1画像群を指定する画面において、第1画像群が格納されているフォルダを指定するフィールド、第1画像群の撮影日を指定するフィールド、および、第1画像群の撮影場所を指定するフィールドが表示されている。受取人は、各々のフィールドに設けられているチェックボックをチェック状態にすることにより、上記3つのフィールドの中から、第1画像群を指定するために使用する1以上のフィールドを指定する。 In the case of the example of FIG. 40, on the screen for designating the first image group, a field for designating the folder in which the first image group is stored, a field for designating the shooting date of the first image group, and the first image group A field for specifying the shooting location is displayed. The recipient designates one or more fields to be used for designating the first image group from among the above three fields by setting the check box provided in each field to a check state.
 なお、第1画像群を指定するフィールドの数は1以上であればよく、特に上限はない。また、2以上のチェックボックスが指定された場合、受取人が所有する画像群の中から、受取人によって指定された2以上のチェックボックスにおける指定条件に一致する画像をAND(論理積)検索してもよいし、OR(論理和)検索してもよい。画像をAND検索するのか、OR検索するのかは、あらかじめ設定されていてもよいし、受取人が指定できるようにしてもよい。 Note that the number of fields specifying the first image group may be one or more, and there is no upper limit. When two or more check boxes are specified, an AND (logical product) search is performed for images that match the specified conditions in the two or more check boxes specified by the recipient from the image group owned by the recipient. Alternatively, an OR (logical sum) search may be performed. Whether the image is AND-searched or OR-searched may be set in advance or may be specified by the recipient.
 「次へ」のボタンが押されると、続いて、第1画像群保持部102は、受取人によって指定された第1画像群を保持する。 When the “Next” button is pressed, the first image group holding unit 102 holds the first image group designated by the recipient.
 続いて、図41に示すように、受取人の端末装置14の画像表示部68は、画像特定部86が受取人によって指定された第1画像群の中から画像を自動で選んでポストカードを作成することを知らせる画面を表示する。 Subsequently, as shown in FIG. 41, the image display unit 68 of the recipient's terminal device 14 automatically selects an image from the first image group designated by the recipient by the image specifying unit 86 and selects a postcard. Display a screen that informs you to create.
 図41の例において「おまかせ作成する」のボタンが押されると、続いて、画像解析部58は、第1合成画像群に含まれる各々の画像の内容を解析する。続いて、人物特定部82は、第1合成画像群に含まれる各々の画像の解析結果に基づいて、第1合成画像群に含まれる各々の画像に写っている複数の人物を特定する。続いて、画像特定部86は、第1画像群保持部102に保持された第1画像群の中から、指定人物が写っている画像を特定する(ステップS27)。 41, when the “Create entrust” button is pressed, the image analysis unit 58 analyzes the contents of each image included in the first composite image group. Subsequently, the person specifying unit 82 specifies a plurality of persons in each image included in the first composite image group based on the analysis result of each image included in the first composite image group. Subsequently, the image specifying unit 86 specifies an image in which the designated person is captured from the first image group held in the first image group holding unit 102 (step S27).
 続いて、合成画像作成部26は、指定人物が写っている画像を用いて第2合成画像を作成する(ステップS28)。 Subsequently, the composite image creation unit 26 creates a second composite image using an image in which the designated person is shown (step S28).
 第2合成画像が作成されると、続いて、図42に示すように、合成画像作成部26は、作成された第2合成画像を確認するための画面を、受取人の端末装置14の画像表示部68に表示する。 When the second composite image is created, subsequently, as shown in FIG. 42, the composite image creation unit 26 displays a screen for confirming the created second composite image as an image of the recipient terminal device 14. It is displayed on the display unit 68.
 図42の例の場合、第2合成画像を確認するための画面には、Aさんに送る第2合成画像の候補が表示されている。Aさんに送る第2合成画像の候補に写っている左側の人物はAさんであり、右側の二人の人物はフォトブックの受取人である。受取人は、「画像を変更する」のボタンを押すことにより、Aさんに送る別の第2合成画像の候補を表示させて、Aさんへ送る別の第2合成画像を選択することができる。また図42にあるように、テキストメッセージを合成することもできる。テキストメッセージは、複数の定型文の中から受取人によって選択された定型文を表示してもよいが、受取人がテキストメッセージを自由に作成することができるようにしてもよい。また、「次の人へ」のボタンを押すことにより、次の人物に送る第2合成画像を表示させることができる。 42, in the screen for confirming the second composite image, candidates for the second composite image to be sent to Mr. A are displayed. The person on the left in the candidate for the second composite image to be sent to Mr. A is Mr. A, and the two persons on the right are recipients of the photo book. The recipient can display another second composite image candidate to be sent to Mr. A by pressing the “change image” button, and can select another second composite image to be sent to Mr. A. . Also, as shown in FIG. 42, a text message can be synthesized. The text message may display a fixed sentence selected by the recipient from a plurality of fixed sentences, but may allow the recipient to freely create a text message. In addition, by pressing the “next person” button, the second composite image to be sent to the next person can be displayed.
 続いて、図43に示すように、合成画像作成部26は、第2合成画像を送付する人物の住所を入力するための画面を、受取人の端末装置14の画像表示部68に表示する。 Subsequently, as shown in FIG. 43, the composite image creation unit 26 displays a screen for inputting the address of the person to whom the second composite image is sent on the image display unit 68 of the recipient's terminal device 14.
 図43の例の場合、合成画像作成部26は、住所を入力するための画面において、AさんおよびBさんの郵便番号および住所を入力するためのフィールドを表示している。受取人は、指示入力部70を介して、AさんおよびBさんの郵便番号および住所を入力する。 43, the composite image creation unit 26 displays fields for inputting the postal codes and addresses of Mr. A and Mr. B on the screen for inputting addresses. The recipient inputs the postal codes and addresses of Mr. A and Mr. B via the instruction input unit 70.
 なお、受取人は、住所を入力するための画面において、例えば、住所を入力するための領域を上下にスワイプすることにより、表示されていない他の人物の住所を入力するためのフィールドを表示させて郵便番号および住所を入力することができる。また、「既存の住所録を利用する(ファイルを指定)」のボタンを押すことにより、受取人が所有する住所録のファイルを指定し、さらに、指定した住所録に格納されている人物を指定することにより、指定した人物の住所を自動で入力することができる。例えば、フォトブックの受取人が新郎新婦である場合、結婚式の招待状を送るために作成した住所録を使うことができる。このように、第1合成画像作成時のプロフィール画像がどの人物を示すのかについての情報と住所録に格納されている人物の氏名とを通じて、顔画像と住所とを紐付けすることができるので、受取人は自らが有する画像の中から、指定人物の各々が写っている画像を用いて、指定人物の各々に適したお礼のポストカードを、容易に作成して各々の指定人物に送付することができる。 In the screen for entering an address, for example, the recipient displays a field for entering the address of another person who is not displayed by swiping up and down the area for entering the address. You can enter a zip code and address. In addition, by pressing the “Use existing address book (specify file)” button, specify the address book file owned by the recipient, and also specify the person stored in the specified address book By doing so, it is possible to automatically input the address of the designated person. For example, if the recipient of a photo book is a bride and groom, an address book created to send a wedding invitation can be used. In this way, since the face image and the address can be linked through the information about which person the profile image at the time of creating the first composite image indicates and the name of the person stored in the address book, Recipients can easily create a thank-you postcard suitable for each designated person and send it to each designated person using an image of each designated person in the images they own. Can do.
 「完了してポストカードを送る」のボタンが押されると、画像処理システム10は、AさんおよびBさんの二人にポストカードを送付する。 When the “Complete and send postcard” button is pressed, the image processing system 10 sends a postcard to both A and B.
 このように、画像処理システム10においては、複数のユーザが所有する複数の画像を用いて作成された第1合成画像に写っている複数の人物を特定し、特定した複数の人物の中から、指定人物として、1以上の人物の指定を受け付け、受取人が所有する第1画像群の中から、指定人物が写っている画像を特定し、特定した画像を用いて、第1合成画像とは別の第2合成画像を作成することができる。 Thus, in the image processing system 10, a plurality of persons appearing in the first composite image created using a plurality of images owned by a plurality of users are identified, and the plurality of identified persons are As a designated person, the designation of one or more persons is accepted, an image showing the designated person is identified from the first image group owned by the recipient, and the identified image is used as the first composite image. Another second composite image can be created.
 第1合成画像が結婚披露宴のフォトブックである場合、結婚披露宴に参列した複数の人物の中には、結婚披露宴のフォトブックの作成に関わる複数の参加ユーザが含まれる。フォトブックの受取人である新郎新婦は、画像処理システム10を使用し、そのお礼として、新郎新婦が所有する複数の画像の中から、結婚披露宴に参列した各々の参加ユーザが写っている画像を用いて、第2合成画像として、各々の参加ユーザが写っている画像付きのポストカード等を作成し、作成したポストカード等を各々の参加ユーザに送付することができる。 When the first composite image is a wedding reception photobook, the plurality of persons attending the wedding reception include a plurality of participating users involved in the creation of the wedding reception photobook. The bride and groom who are the recipients of the photo book use the image processing system 10 and thank them for the images of each participating user who attended the wedding reception from among a plurality of images owned by the bride and groom. It is possible to create a postcard with an image showing each participating user as the second composite image, and send the created postcard or the like to each participating user.
 また、第1合成画像の作成に関わる複数の参加ユーザの顔画像に基づいて、指定人物として、第1合成画像の作成に関わる複数の参加ユーザを特定することができる。 Also, based on the face images of a plurality of participating users involved in the creation of the first composite image, a plurality of participating users involved in the creation of the first composite image can be specified as the designated person.
 以下の説明において、第1合成画像は、識別情報として、バーコードを有するものとする。また、顔画像保持部100には、第1合成画像を作成する場合に、複数の参加ユーザの端末装置14から取得された複数の参加ユーザの顔画像を含む複数の顔画像が保持されているものとする。 In the following description, it is assumed that the first composite image has a barcode as identification information. The face image holding unit 100 holds a plurality of face images including the face images of a plurality of participating users acquired from the terminal devices 14 of the plurality of participating users when creating the first composite image. Shall.
 この場合、受取人は、例えば、受取人が所有するスマートフォン等の携帯端末の画像撮影部によって、第1合成画像が有するバーコードを撮影する。 In this case, the recipient captures the barcode included in the first composite image by, for example, an image capturing unit of a mobile terminal such as a smartphone owned by the recipient.
 なお、受取人の端末装置14が携帯端末である必要はなく、例えば、デスクトップPCおよびノートPC等の端末装置14から、ケーブル付のUSBカメラ等の画像撮影部によって第1合成画像が有するバーコードを撮影することもできる。 Note that the recipient terminal device 14 does not have to be a portable terminal. For example, the barcode included in the first composite image from the terminal device 14 such as a desktop PC or a notebook PC by an image capturing unit such as a USB camera with a cable. Can also be taken.
 続いて、識別情報取得部78は、撮影されたバーコードの画像から、第1合成画像が有する識別情報を取得する。 Subsequently, the identification information acquisition unit 78 acquires the identification information included in the first composite image from the photographed barcode image.
 なお、受取人は、バーコードを撮影する代わりに、受取人が第1合成画像に記載された識別番号を入力してもよい。この場合、識別情報取得部78は、受取人によって入力された識別番号を識別情報として取得する。 Note that the recipient may input the identification number described in the first composite image instead of photographing the barcode. In this case, the identification information acquisition unit 78 acquires the identification number input by the recipient as identification information.
 続いて、顔画像特定部80は、識別情報取得部78によって取得された識別情報に基づいて、顔画像保持部100に保持された複数の顔画像の中から、第1合成画像の作成に関わる複数の参加ユーザの顔画像を特定する。 Subsequently, the face image specifying unit 80 is involved in creating the first composite image from the plurality of face images held in the face image holding unit 100 based on the identification information acquired by the identification information acquisition unit 78. Identify face images of multiple participating users.
 続いて、人物特定部82は、第1合成画像の作成に関わる複数の参加ユーザの顔画像に基づいて、第1合成画像に写っている複数の人物の各々に対応する複数の参加ユーザの各々を特定する。 Subsequently, based on the face images of the plurality of participating users involved in the creation of the first composite image, the person specifying unit 82 each of the plurality of participating users corresponding to each of the plurality of persons shown in the first composite image. Is identified.
 続いて、指定人物受付部84は、第1合成画像の作成に関わる複数の参加ユーザの中から、1以上の指定人物に対応する参加ユーザを特定する。これ以後は、指定人物を、特定された参加ユーザとして、上記の通りに動作する。 Subsequently, the designated person receiving unit 84 specifies a participating user corresponding to one or more designated persons from among a plurality of participating users involved in the creation of the first composite image. Thereafter, the designated person operates as the specified participating user as described above.
 このように、人物特定部82は、第1合成画像の解析結果だけでなく、第1合成画像の作成に関わる複数の参加ユーザの顔画像に基づいて、第1合成画像の作成に関わる複数の参加ユーザを特定し、第2合成画像を作成することができる。 As described above, the person specifying unit 82 is not only based on the analysis result of the first composite image, but also based on the face images of a plurality of participating users related to the creation of the first composite image, Participating users can be specified and a second composite image can be created.
 また、受取人は、指定人物の重要度を設定することができる。 Also, the recipient can set the importance of the designated person.
 この場合、受取人は、第1合成画像に写っている複数の人物の中から指定人物として1以上の人物を指定するための画面において、指示入力部70を介して、各々の指定人物の重要度を設定する。 In this case, on the screen for designating one or more persons as designated persons from among a plurality of persons shown in the first composite image, the recipient receives the important information of each designated person via the instruction input unit 70. Set the degree.
 続いて、重要度情報取得部72は、受取人の端末装置14から、受取人によって設定された指定人物の重要度の情報を取得する。 Subsequently, the importance level information acquisition unit 72 acquires the importance level information of the designated person set by the recipient from the recipient's terminal device 14.
 続いて、合成画像作成部26は、重要度の情報に基づいて、重要度が低い指定人物よりも重要度が高い指定人物が写っている画像を優先的に用いて第2合成画像を作成する。
 例えば、画像抽出部90は、指定人物が写っている複数の画像の中から、合成対象画像として、重要度が最も高い指定人物が写っている画像から順に抽出する。これ以外の動作は、前述の通りである。
Subsequently, the composite image creation unit 26 creates a second composite image based on the importance level information by preferentially using an image in which the designated person having a higher importance than the designated person having a lower importance is captured. .
For example, the image extraction unit 90 sequentially extracts, from the plurality of images in which the designated person is captured, from the image in which the designated person having the highest importance is captured as the synthesis target image. Other operations are as described above.
 これにより、各々の指定人物の重要度に基づいて、第2合成画像において使用する、指定人物が写っている画像の優先順位を決定することができ、受取人にとって重要度が高い人物が写っている画像を優先的に使用して第2合成画像を作成することができる。 Thereby, based on the importance of each designated person, it is possible to determine the priority order of the images in which the designated person is used, which is used in the second composite image. The second composite image can be created by preferentially using the existing image.
 また、受取人は、指定人物に対するコメントを第2合成画像に含めることができる。 Also, the recipient can include a comment for the designated person in the second composite image.
 この場合、コメント取得部74は、指定人物に対するコメントを入力するための画面を、受取人の端末装置14の画像表示部68に表示する。 In this case, the comment acquisition unit 74 displays a screen for inputting a comment for the designated person on the image display unit 68 of the recipient's terminal device 14.
 受取人は、コメントを入力するための画面において、指示入力部70を介して、各々の指定人物に対するコメントを入力する。 The recipient inputs a comment for each designated person via the instruction input unit 70 on the screen for inputting a comment.
 続いて、コメント取得部74は、受取人の端末装置14からアップロードされたコメント、つまり、指定人物に対する受取人のコメントを取得する。 Subsequently, the comment acquisition unit 74 acquires a comment uploaded from the recipient's terminal device 14, that is, a recipient's comment on the designated person.
 続いて、合成画像作成部26は、指定人物が写っている複数の画像に加え、コメント取得部74が取得したコメントを用いて第2合成画像を作成する。
 例えば、画像配置部92は、本編ページの画像の配置領域において、指定人物が写っている複数の画像の周囲に、その指定人物に対するコメントを配置する。これ以外の動作は、前述の通りである。
Subsequently, the composite image creation unit 26 creates a second composite image using the comments acquired by the comment acquisition unit 74 in addition to the plurality of images in which the designated person is shown.
For example, the image placement unit 92 places a comment for the designated person around a plurality of images in which the designated person is shown in the image placement area of the main page. Other operations are as described above.
 これにより、受取人は、自分自身の気持ちを、第2合成画像を送付する人物に伝えることができる。 This makes it possible for the recipient to convey his / her feelings to the person sending the second composite image.
 また、受取人は、画像(静止画像)と動画像とを組み合わせて使用することができる。 Also, the recipient can use a combination of images (still images) and moving images.
 この場合、動画像取得部76は、1以上の動画像を指定するための画面を、例えば、受取人の端末装置14の画像表示部68に表示する。 In this case, the moving image acquisition unit 76 displays a screen for designating one or more moving images on the image display unit 68 of the recipient's terminal device 14, for example.
 受取人は、動画像を指定するための画面において、指示入力部70を介して、第2合成画像において使用される複数の画像の各々と関連付けられた1以上の動画像の各々を指定する。 The recipient designates each of one or more moving images associated with each of the plurality of images used in the second composite image via the instruction input unit 70 on the screen for designating the moving image.
 続いて、動画像取得部76は、受取人の端末装置14からアップロードされた動画像、つまり、第2合成画像において使用される複数の画像の各々と関連付けられた1以上の動画像の各々を取得する。 Subsequently, the moving image acquisition unit 76 acquires each of one or more moving images associated with each of the moving images uploaded from the recipient's terminal device 14, that is, the plurality of images used in the second composite image. get.
 続いて、合成画像作成部26は、1以上の動画像の各々と関連付けられた1以上の画像を含み、かつ、指定人物が写っている第1画像群を用いて第2合成画像を作成する。 Subsequently, the composite image creation unit 26 creates a second composite image using the first image group that includes one or more images associated with each of the one or more moving images and includes the designated person. .
 例えば、第2合成画像の受取人である指定人物は、第2合成画像において使用された第1画像群のうち、1以上の動画像のうちの第1動画像と関連付けられた第1画像を、指定人物の携帯端末の画像撮影部によって撮影(キャプチャ)する。これにより、指定人物によって撮影された第1画像が、指定人物の端末装置14の画像表示部68に表示される。この場合、AR(Augmented Reality:拡張現実)技術を利用することにより、第1動画像が、指定人物の携帯端末の画像表示部68において再生される。 For example, the designated person who is the recipient of the second synthesized image selects the first image associated with the first moving image of one or more moving images in the first image group used in the second synthesized image. Then, the image is taken (captured) by the image photographing unit of the portable terminal of the designated person. As a result, the first image taken by the designated person is displayed on the image display unit 68 of the terminal apparatus 14 of the designated person. In this case, by using AR (Augmented Reality) technology, the first moving image is reproduced on the image display unit 68 of the portable terminal of the designated person.
 この場合、第1動画像を、指定人物の携帯端末の画像表示部68の全画面において再生してもよいし、あるいは、指定人物の携帯端末の画像表示部68に表示された第1画像の表示領域内において再生してもよい。 In this case, the first moving image may be reproduced on the entire screen of the image display unit 68 of the designated person's portable terminal, or the first image displayed on the image display unit 68 of the designated person's portable terminal may be reproduced. You may reproduce | regenerate within a display area.
 このように、第2合成画像の受取人は、第2合成画像において使用された画像と関連付けられた動画像を再生して閲覧することができる。 In this way, the recipient of the second composite image can reproduce and view the moving image associated with the image used in the second composite image.
 なお、上記の顔画像に基づく参加ユーザの特定、指定人物の重要度の設定、指定人物に対するコメントの使用、画像と動画像との組合せの使用等の観点を組合せて第2合成画像を作成してもよい。
 なお、動画像と関連付けられる画像として、動画像から取り出した静止画像を使用してもよい。この場合、画像解析部58は、動画像を構成する複数の静止画像に含まれる各々の画像の内容を解析する。続いて、人物特定部82は、動画像を構成する複数の静止画像の解析結果に基づいて、動画像を構成する複数の静止画像に写っている複数の人物を特定する。続いて、画像特定部86は、動画像を構成する複数の静止画像の中から、指定人物が写っている画像を特定して、動画像と関連付けられる画像とする。
The second composite image is created by combining the viewpoints such as the identification of the participating user based on the face image, the setting of the importance level of the designated person, the use of a comment for the designated person, the use of a combination of an image and a moving image May be.
Note that a still image extracted from a moving image may be used as an image associated with the moving image. In this case, the image analysis unit 58 analyzes the contents of each image included in the plurality of still images constituting the moving image. Subsequently, the person specifying unit 82 specifies a plurality of persons shown in the plurality of still images constituting the moving image based on the analysis result of the plurality of still images constituting the moving image. Subsequently, the image specifying unit 86 specifies an image in which the designated person is captured from a plurality of still images constituting the moving image, and sets it as an image associated with the moving image.
 なお、幹事ユーザだけが合成画像を作成することは必須ではなく、合成画像の作成に関わる複数のユーザが共同で合成画像を作成してもよいし、複数のユーザのうちの少なくとも一人のユーザが合成画像を作成してもよい。 It should be noted that it is not essential for the secretary user to create a composite image, and a plurality of users involved in the creation of the composite image may jointly create a composite image, or at least one user among the plurality of users A composite image may be created.
 画像処理システム10を構成する各部位の具体的な構成は特に限定されず、同様の機能を果たすことができる各種構成のものを利用することができる。
 また、上記実施形態では、サーバ12が情報設定部18、情報管理部20、データ取得部22、データ解析部24および合成画像作成部26を備えているが、これらのうちの少なくとも1つをユーザの端末装置14が備えていてもよい。
The specific configuration of each part constituting the image processing system 10 is not particularly limited, and various configurations that can perform the same function can be used.
In the above embodiment, the server 12 includes the information setting unit 18, the information management unit 20, the data acquisition unit 22, the data analysis unit 24, and the composite image creation unit 26. The terminal device 14 may be provided.
 本発明のサーバ12及び端末装置14は、画像処理システム10が備える各々の構成要素を専用のハードウェアで構成してもよいし、各々の構成要素をプログラムされたコンピュータで構成してもよい。
 本発明の方法は、例えば、その各々のステップをコンピュータに実行させるためのプログラムにより実施することができる。また、このプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供することもできる。
In the server 12 and the terminal device 14 of the present invention, each component included in the image processing system 10 may be configured by dedicated hardware, or each component may be configured by a programmed computer.
The method of the present invention can be implemented, for example, by a program for causing a computer to execute each step. It is also possible to provide a computer-readable recording medium in which this program is recorded.
 以上、本発明について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の主旨を逸脱しない範囲において、種々の改良や変更をしてもよいのはもちろんである。 The present invention has been described in detail above. However, the present invention is not limited to the above-described embodiment, and it is needless to say that various improvements and modifications may be made without departing from the gist of the present invention.
 10 画像処理システム
 12 サーバ
 14 端末装置(クライアント)
 16 ネットワーク
 18 情報設定部
 20 情報管理部
 22 データ取得部
 24 データ解析部
 26 合成画像作成部
 28 予算設定部
 30 商材取得部
 32 表紙デザイン設定部
 34 寄せ書きデザイン設定部
 36 日程設定部
 38 設定保存部
 40 アカウント情報保存部
 42 管理画面情報送付部
 44 アップロード催促部
 46 画像取得部
 48 評価情報取得部
 50 メッセージ取得部
 52 画像数算出部
 54 評価数算出部
 56 メッセージ数算出部
 58 画像解析部
 60 評価値算出部
 62 表紙作成部
 64 本編作成部
 66 寄せ書き作成部
 68 画像表示部
 70 指示入力部
 72 重要度情報取得部
 74 コメント取得部
 76 動画像取得部
 78 識別情報取得部
 80 顔画像特定部
 82 人物特定部
 84 指定人物受付部
 86 画像特定部
 88 画像分割部
 90 画像抽出部
 92 画像配置部
 94 メッセージ分割部
 96 メッセージ配置部
 98 第1合成画像取得部
 100 顔画像保持部
 102 第1画像群保持部
10 image processing system 12 server 14 terminal device (client)
Reference Signs List 16 Network 18 Information Setting Unit 20 Information Management Unit 22 Data Acquisition Unit 24 Data Analysis Unit 26 Composite Image Creation Unit 28 Budget Setting Unit 30 Product Material Acquisition Unit 32 Cover Design Setting Unit 34 Collaborative Design Setting Unit 36 Schedule Setting Unit 38 Setting Saving Unit DESCRIPTION OF SYMBOLS 40 Account information storage part 42 Management screen information transmission part 44 Upload prompting part 46 Image acquisition part 48 Evaluation information acquisition part 50 Message acquisition part 52 Image number calculation part 54 Evaluation number calculation part 56 Message number calculation part 58 Image analysis part 60 Evaluation value Calculation unit 62 Cover creation unit 64 Main story creation unit 66 Margin creation unit 68 Image display unit 70 Instruction input unit 72 Importance information acquisition unit 74 Comment acquisition unit 76 Moving image acquisition unit 78 Identification information acquisition unit 80 Face image specification unit 82 Person specification Part 84 Designated person accepting part 86 Image specifying part 88 Image Dividing unit 90 Image extracting unit 92 Image arranging unit 94 Message dividing unit 96 Message arranging unit 98 First composite image obtaining unit 100 Face image holding unit 102 First image group holding unit

Claims (12)

  1.  第1のユーザが所有する第1合成画像を取得する第1合成画像取得部と、
     前記第1合成画像の内容を解析する画像解析部と、
     前記第1合成画像の解析結果に基づいて、前記第1合成画像に写っている複数の人物を特定する人物特定部と、
     前記第1合成画像に写っている複数の人物の中から、指定人物として、1以上の人物の指定を受け付ける指定人物受付部と、
     前記第1のユーザが所有する第1画像群を保持する第1画像群保持部と、
     前記第1画像群の中から、前記指定人物が写っている画像を特定する画像特定部と、
     前記指定人物が写っている画像を用いて第2合成画像を作成する合成画像作成部とを備える画像処理システム。
    A first composite image acquisition unit that acquires a first composite image owned by a first user;
    An image analysis unit for analyzing the content of the first composite image;
    Based on the analysis result of the first composite image, a person specifying unit for specifying a plurality of persons in the first composite image;
    A designated person accepting unit that accepts designation of one or more persons as designated persons from the plurality of persons reflected in the first composite image;
    A first image group holding unit for holding a first image group owned by the first user;
    An image specifying unit for specifying an image in which the designated person appears in the first image group;
    An image processing system comprising: a composite image creation unit that creates a second composite image using an image in which the designated person is shown.
  2.  前記第1合成画像は、前記第1合成画像を他の画像から識別する識別情報を有し、
     前記第1合成画像が有する識別情報を取得する識別情報取得部と、
     前記第1合成画像を作成する場合に、複数のユーザの端末装置からネットワークを介して前記複数のユーザの顔画像を含む複数の顔画像を取得し、前記取得した複数の顔画像を保持する顔画像保持部と、
     前記識別情報取得部によって取得された識別情報に基づいて、前記顔画像保持部に保持された複数の顔画像の中から、前記複数のユーザの顔画像を特定する顔画像特定部とを備え、
     前記人物特定部は、前記顔画像特定部によって特定された前記複数のユーザの顔画像に基づいて、前記第1合成画像に写っている複数の人物の各々に対応する前記複数のユーザの各々を特定し、
     前記指定人物受付部は、前記人物特定部によって特定された複数のユーザの中から、1以上の前記指定人物に対応するユーザを特定する請求項1に記載の画像処理システム。
    The first composite image has identification information for identifying the first composite image from other images,
    An identification information acquisition unit that acquires identification information of the first composite image;
    When creating the first composite image, a plurality of face images including the face images of the plurality of users are acquired from the terminal devices of the plurality of users via a network, and the face that holds the acquired plurality of face images An image holding unit;
    A face image specifying unit that specifies the face images of the plurality of users from the plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquisition unit;
    The person specifying unit determines each of the plurality of users corresponding to each of the plurality of persons shown in the first composite image based on the face images of the plurality of users specified by the face image specifying unit. Identify,
    The image processing system according to claim 1, wherein the designated person receiving unit identifies a user corresponding to one or more of the designated persons from among a plurality of users specified by the person specifying unit.
  3.  第1のユーザが所有する第1合成画像を他の画像から識別する識別情報を取得する識別情報取得部と、
     前記第1合成画像を作成する場合に、複数のユーザの端末装置からネットワークを介して前記複数のユーザの顔画像を含む複数の顔画像を取得し、前記取得した複数の顔画像を保持する顔画像保持部と、
     前記識別情報取得部によって取得された識別情報に基づいて、前記顔画像保持部に保持された複数の顔画像の中から、前記複数のユーザの顔画像を特定する顔画像特定部と、
     前記第1のユーザが所有する第1画像群を保持する第1画像群保持部と、
     前記顔画像特定部によって特定された複数のユーザの中から、指定人物として、1以上の人物の指定を受け付ける指定人物受付部と、
     前記第1画像群の中から、前記指定人物が写っている画像を特定する画像特定部と、
     前記指定人物が写っている画像を用いて第2合成画像を作成する合成画像作成部とを備える画像処理システム。
    An identification information acquisition unit for acquiring identification information for identifying the first composite image owned by the first user from other images;
    When creating the first composite image, a plurality of face images including the face images of the plurality of users are acquired from the terminal devices of the plurality of users via a network, and the face that holds the acquired plurality of face images An image holding unit;
    A face image specifying unit for specifying the face images of the plurality of users from the plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquiring unit;
    A first image group holding unit for holding a first image group owned by the first user;
    A designated person receiving unit that receives designation of one or more persons as a designated person from among a plurality of users identified by the face image identifying unit;
    An image specifying unit for specifying an image in which the designated person appears in the first image group;
    An image processing system comprising: a composite image creation unit that creates a second composite image using an image in which the designated person is shown.
  4.  前記第1のユーザの端末装置から、ネットワークを介して、前記第1のユーザによって設定された前記指定人物の重要度の情報を取得する重要度情報取得部を備え、
     前記合成画像作成部は、前記重要度の情報に基づいて、前記重要度が低い指定人物よりも前記重要度が高い指定人物が写っている画像を優先的に用いて前記第2合成画像を作成する請求項1ないし3のいずれか一項に記載の画像処理システム。
    An importance level information acquisition unit that acquires importance level information of the designated person set by the first user via a network from the terminal device of the first user;
    The composite image creating unit creates the second composite image based on the importance information by preferentially using an image showing the designated person having the higher importance than the designated person having the lower importance. The image processing system according to any one of claims 1 to 3.
  5.  前記第1のユーザの端末装置から、前記指定人物に対する前記第1のユーザのコメントを取得するコメント取得部を備え、
     前記合成画像作成部は、前記指定人物が写っている複数の画像に加え、前記コメントを用いて前記第2合成画像を作成する請求項1ないし4のいずれか一項に記載の画像処理システム。
    A comment acquisition unit for acquiring a comment of the first user for the designated person from the terminal device of the first user;
    The image processing system according to any one of claims 1 to 4, wherein the composite image creation unit creates the second composite image using the comment in addition to a plurality of images in which the designated person is shown.
  6.  前記第1のユーザの端末装置から、前記第2合成画像において使用される複数の画像の各々と関連付けられた1以上の動画像の各々を取得する動画像取得部を備え、
     前記合成画像作成部は、前記1以上の動画像の各々と関連付けられた1以上の画像を含み、かつ、前記指定人物が写っている第1画像群を用いて前記第2合成画像を作成し、
     前記第2合成画像において使用された第1画像群のうち、前記1以上の動画像のうちの第1動画像と関連付けられた第1画像が、前記指定人物の端末装置の画像撮影部によって撮影され、かつ、前記撮影された第1画像が、前記指定人物の端末装置の画像表示部に表示された場合に、前記第1動画像が、前記指定人物の端末装置の画像表示部において再生される請求項1ないし5のいずれか一項に記載の画像処理システム。
    A moving image acquisition unit that acquires each of one or more moving images associated with each of a plurality of images used in the second composite image from the terminal device of the first user;
    The composite image creation unit creates the second composite image using a first image group that includes one or more images associated with each of the one or more moving images and includes the designated person. ,
    Of the first image group used in the second composite image, the first image associated with the first moving image of the one or more moving images is captured by the image capturing unit of the terminal device of the designated person. And when the photographed first image is displayed on the image display unit of the designated person's terminal device, the first moving image is reproduced on the image display unit of the designated person's terminal device. The image processing system according to any one of claims 1 to 5.
  7.  前記第1動画像が、前記指定人物の端末装置の画像表示部に表示された前記第1画像の表示領域内において再生される請求項6に記載の画像処理システム。 The image processing system according to claim 6, wherein the first moving image is reproduced in a display area of the first image displayed on an image display unit of the designated person's terminal device.
  8.  第1合成画像取得部が、第1のユーザが所有する第1合成画像を取得するステップと、
     画像解析部が、前記第1合成画像の内容を解析するステップと、
     人物特定部が、前記第1合成画像の解析結果に基づいて、前記第1合成画像に写っている複数の人物を特定するステップと、
     指定人物受付部が、前記第1合成画像に写っている複数の人物の中から、指定人物として、1以上の人物の指定を受け付けるステップと、
     第1画像群保持部が、前記第1のユーザが所有する第1画像群を保持するステップと、
     画像特定部が、前記第1画像群の中から、前記指定人物が写っている画像を特定するステップと、
     合成画像作成部が、前記指定人物が写っている画像を用いて第2合成画像を作成するステップとを含む画像処理方法。
    A first composite image acquisition unit acquiring a first composite image owned by the first user;
    An image analysis unit analyzing the content of the first composite image;
    A person specifying unit specifying a plurality of persons in the first composite image based on the analysis result of the first composite image;
    A designated person receiving unit receiving a designation of one or more persons as a designated person from among a plurality of persons reflected in the first composite image;
    A first image group holding unit holding a first image group owned by the first user;
    An image specifying unit specifying an image in which the designated person is captured from the first image group;
    A composite image creating unit creating a second composite image using an image of the designated person.
  9.  前記第1合成画像は、前記第1合成画像を他の画像から識別する識別情報を有し、
     識別情報取得部が、前記第1合成画像が有する識別情報を取得するステップと、
     顔画像保持部が、前記第1合成画像を作成する場合に、複数のユーザの端末装置からネットワークを介して前記複数のユーザの顔画像を含む複数の顔画像を取得し、前記取得した複数の顔画像を保持するステップと、
     顔画像特定部が、前記識別情報取得部によって取得された識別情報に基づいて、前記顔画像保持部に保持された複数の顔画像の中から、前記複数のユーザの顔画像を特定するステップとを含み、
     前記人物を特定するステップは、前記顔画像特定部によって特定された前記複数のユーザの顔画像に基づいて、前記第1合成画像に写っている複数の人物の各々に対応する前記複数のユーザの各々を特定し、
     前記人物の指定を受け付けるステップは、前記人物を特定するステップによって特定された複数のユーザの中から、1以上の前記指定人物に対応するユーザを特定する請求項8に記載の画像処理方法。
    The first composite image has identification information for identifying the first composite image from other images,
    An identification information acquisition unit acquiring identification information included in the first composite image;
    When the face image holding unit creates the first composite image, the face image holding unit acquires a plurality of face images including the face images of the plurality of users from the terminal devices of the plurality of users via the network. Holding a face image;
    A step in which a face image specifying unit specifies the face images of the plurality of users from the plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquiring unit; Including
    The step of specifying the person includes the plurality of users corresponding to each of the plurality of persons shown in the first composite image based on the face images of the plurality of users specified by the face image specifying unit. Identify each
    The image processing method according to claim 8, wherein the step of accepting designation of the person identifies a user corresponding to one or more of the designated persons from a plurality of users identified by the step of identifying the person.
  10.  識別情報取得部が、第1のユーザが所有する第1合成画像を他の画像から識別する識別情報を取得するステップと、
     顔画像保持部が、前記第1合成画像を作成する場合に、複数のユーザの端末装置からネットワークを介して前記複数のユーザの顔画像を含む複数の顔画像を取得し、前記取得した複数の顔画像を保持するステップと、
     顔画像特定部が、前記識別情報取得部によって取得された識別情報に基づいて、前記顔画像保持部に保持された複数の顔画像の中から、前記複数のユーザの顔画像を特定するステップと、
     第1画像群保持部が、前記第1のユーザが所有する第1画像群を保持するステップと、
     指定人物受付部が、前記顔画像特定部によって特定された複数のユーザの中から、指定人物として、1以上の人物の指定を受け付けるステップと、
     画像特定部が、前記第1画像群の中から、前記指定人物が写っている画像を特定するステップと、
     合成画像作成部が、前記指定人物が写っている画像を用いて第2合成画像を作成するステップとを含む画像処理方法。
    An identification information acquiring unit acquiring identification information for identifying the first composite image owned by the first user from other images;
    When the face image holding unit creates the first composite image, the face image holding unit acquires a plurality of face images including the face images of the plurality of users from the terminal devices of the plurality of users via the network. Holding a face image;
    A step in which a face image specifying unit specifies the face images of the plurality of users from the plurality of face images held in the face image holding unit based on the identification information acquired by the identification information acquiring unit; ,
    A first image group holding unit holding a first image group owned by the first user;
    A designated person accepting unit that accepts designation of one or more persons as designated persons from among a plurality of users identified by the face image identifying unit;
    An image specifying unit specifying an image in which the designated person is captured from the first image group;
    A composite image creating unit creating a second composite image using an image of the designated person.
  11.  請求項8ないし10のいずれか一項に記載の画像処理方法の各々のステップをコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the image processing method according to any one of claims 8 to 10.
  12.  請求項8ないし10のいずれか一項に記載の画像処理方法の各々のステップをコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which a program for causing a computer to execute each step of the image processing method according to any one of claims 8 to 10 is recorded.
PCT/JP2017/011146 2016-03-29 2017-03-21 Image processing system, image processing method, program and recording medium WO2017169963A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/121,739 US10783355B2 (en) 2016-03-29 2018-09-05 Image processing system, image processing method, program, and recording medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016065863 2016-03-29
JP2016-065863 2016-03-29
JP2017048410A JP6518280B2 (en) 2016-03-29 2017-03-14 IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
JP2017-048410 2017-03-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/121,739 Continuation US10783355B2 (en) 2016-03-29 2018-09-05 Image processing system, image processing method, program, and recording medium

Publications (1)

Publication Number Publication Date
WO2017169963A1 true WO2017169963A1 (en) 2017-10-05

Family

ID=59965253

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/011146 WO2017169963A1 (en) 2016-03-29 2017-03-21 Image processing system, image processing method, program and recording medium

Country Status (1)

Country Link
WO (1) WO2017169963A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184790A (en) * 2003-11-27 2005-07-07 Fuji Photo Film Co Ltd Apparatus, method, and program for editing image
JP2007316939A (en) * 2006-05-25 2007-12-06 Fujifilm Corp Electronic album providing device and image network system
JP2008233957A (en) * 2007-03-16 2008-10-02 Fujifilm Corp Image selection device, image selection method, imaging device and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184790A (en) * 2003-11-27 2005-07-07 Fuji Photo Film Co Ltd Apparatus, method, and program for editing image
JP2007316939A (en) * 2006-05-25 2007-12-06 Fujifilm Corp Electronic album providing device and image network system
JP2008233957A (en) * 2007-03-16 2008-10-02 Fujifilm Corp Image selection device, image selection method, imaging device and program

Similar Documents

Publication Publication Date Title
US9338242B1 (en) Processes for generating content sharing recommendations
US10853980B2 (en) Image processing apparatus, image processing method, program, and recording medium
US9531823B1 (en) Processes for generating content sharing recommendations based on user feedback data
JP6533481B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
US20140193047A1 (en) Systems and methods for generating autoflow of content based on image and user analysis as well as use case data for a media-based printable product
US20120324002A1 (en) Media Sharing
US20110270813A1 (en) Digital imaging system employing user personalization and image utilization profiles
JP2022022239A (en) System for publishing digital images
US9405964B1 (en) Processes for generating content sharing recommendations based on image content analysis
JP2014075778A (en) Composite image generation system, image processor and image processing method
US10990824B2 (en) Image processing apparatus, image processing method, program, and recording medium
US20110270947A1 (en) Digital imaging method employing user personalization and image utilization profiles
JP2019185747A (en) Computer implementation method and program of grouping media object, and image capturing apparatus
KR101473438B1 (en) Apparatus for servicing to media wall contents and method thereof
US10783355B2 (en) Image processing system, image processing method, program, and recording medium
JP6674798B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6502280B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
US10846771B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6502272B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
WO2017169963A1 (en) Image processing system, image processing method, program and recording medium
JP6618437B2 (en) Server, terminal device, image processing system, image processing method, program, and recording medium
JP2021128425A (en) Image processing apparatus, image processing method, program, and image processing system
JP6595958B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6936471B2 (en) Community maintenance and activation system
CA2781929A1 (en) System and method for yearbook creation

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17774504

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17774504

Country of ref document: EP

Kind code of ref document: A1