WO2024057964A1 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
WO2024057964A1
WO2024057964A1 PCT/JP2023/031940 JP2023031940W WO2024057964A1 WO 2024057964 A1 WO2024057964 A1 WO 2024057964A1 JP 2023031940 W JP2023031940 W JP 2023031940W WO 2024057964 A1 WO2024057964 A1 WO 2024057964A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
screen
user
terminal device
service
Prior art date
Application number
PCT/JP2023/031940
Other languages
English (en)
French (fr)
Inventor
勇志 岡
雄貴 村田
亜矢子 千葉
定道 番場
類 山上
翔 小林
崇 布巻
大輔 仲
正典 笠
亮太 風間
春佳 川田
裕俊 児玉
勇介 佐々木
凌輔 中山
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2024057964A1 publication Critical patent/WO2024057964A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/567Integrating service provisioning from a plurality of service providers

Definitions

  • the present technology relates to an information processing device, an information processing method, and a program, and relates to a technology that can be applied to, for example, services that provide various types of information.
  • Patent Document 1 listed below describes a service for creating an image collection using image data taken at an event.
  • Sex is required.
  • the information processing device acquires the predetermined information from a specific storage that commonly manages predetermined information used by a plurality of services, each of which can view information via application software or a website, and A control unit is provided that causes each of the plurality of services to execute information presentation using the predetermined information.
  • a control unit is provided that causes each of the plurality of services to execute information presentation using the predetermined information.
  • an information processing device serving as a terminal device used by a user performs a process of presenting screens of a plurality of services to the user.
  • the predetermined information used for presenting information in the plurality of services is obtained, for example, from a specific storage managed by the server.
  • an information processing apparatus serving as a service server provides (sends) screens of a plurality of services to a user's terminal device for presentation.
  • the predetermined information used for presenting information in the plurality of services is obtained, for example, from a specific storage managed by the server.
  • FIG. 1 is an explanatory diagram of a system configuration according to an embodiment of the present technology.
  • FIG. 2 is an explanatory diagram of an example of a plurality of services according to the embodiment.
  • FIG. 2 is an explanatory diagram of a portal service according to an embodiment. It is an explanatory diagram of a camera registration function in a service of an embodiment.
  • FIG. 3 is an explanatory diagram of a camera self-diagnosis function in the service of the embodiment.
  • FIG. 3 is an explanatory diagram of a camera update function in the service of the embodiment.
  • FIG. 3 is an explanatory diagram of the stored contents of the storage according to the embodiment.
  • FIG. 2 is a block diagram of a hardware configuration of a server device or a terminal device according to an embodiment.
  • FIG. 12 is a flowchart of processing at startup of the portal service according to the embodiment. It is a flowchart of processing from a home screen of a portal service of an embodiment. 12 is a flowchart of camera initial setting processing of the portal service according to the embodiment.
  • FIG. 3 is an explanatory diagram of a screen related to wireless communication connection according to the embodiment.
  • FIG. 3 is an explanatory diagram of a screen related to camera initial settings according to the embodiment.
  • FIG. 3 is an explanatory diagram of a screen related to camera initial settings according to the embodiment.
  • FIG. 2 is an explanatory diagram of a home screen of the portal service according to the embodiment.
  • FIG. 7 is a flowchart of device screen processing according to the embodiment. 7 is a flowchart of device screen processing according to the embodiment.
  • FIG. 3 is an explanatory diagram of a device screen according to the embodiment.
  • FIG. 3 is an explanatory diagram of a owned device list screen according to the embodiment. It is an explanatory diagram of a view/import screen of an embodiment.
  • FIG. 3 is an explanatory diagram of a remote operation screen according to the embodiment. It is an explanatory diagram of a setup screen and a transfer notification setting screen of an embodiment. It is an explanatory diagram of a position information interlocking setting screen of an embodiment.
  • FIG. 7 is a flowchart of storage screen processing according to the embodiment.
  • FIG. 3 is an explanatory diagram of a storage screen according to the embodiment.
  • FIG. 3 is an explanatory diagram of an image selection screen according to the embodiment.
  • 7 is a flowchart of network service processing according to the embodiment.
  • FIG. 3 is an explanatory diagram of a gallery screen according to the embodiment.
  • 10 is a flowchart of processing on a discover screen according to an embodiment.
  • FIG. 3 is an explanatory diagram of a discover screen according to the embodiment.
  • FIG. 3 is an explanatory diagram of inputting search characters on the discover screen according to the embodiment.
  • 7 is a flowchart of article screen processing according to the embodiment.
  • FIG. 3 is an explanatory diagram of an article screen according to the embodiment. It is a flowchart of the process of the project details screen of embodiment. It is a flowchart of the process of the project details screen of embodiment.
  • FIG. 3 is an explanatory diagram of a project details screen according to the embodiment. It is an explanatory view of a full display screen of an embodiment. It is an explanatory view of a full display screen of an embodiment. 3 is a flowchart of project creation processing according to the embodiment.
  • FIG. 3 is an explanatory diagram of a project creation screen according to the embodiment. 12 is a flowchart of processing on a project editing screen according to the embodiment.
  • FIG. 3 is an explanatory diagram of a project editing screen according to the embodiment.
  • FIG. 3 is an explanatory diagram of a profile editing screen according to the embodiment. It is a flowchart of processing of my page of an embodiment. It is an explanatory diagram of a my page screen of an embodiment.
  • image includes both still images and moving images
  • image data includes both still image data and moving image data.
  • image does not only refer to an image displayed on a display, but may comprehensively include image data that is not displayed on a display. .
  • FIG. 1 shows an example of a system configuration according to an embodiment.
  • a server system 1 and user equipment 2 are shown.
  • the server system 1 includes a server device 10 and a storage 11.
  • This server system 1 functions as a so-called cloud server via a public network. However, it does not necessarily have to be in the form of a cloud server, and may be a server in a local network of an organization, organization, home, or the like.
  • the server device 10 is composed of one or more information processing devices, and performs processes such as transmitting information to the user device 2 and accepting uploads of information from the user device 2. In particular, the server device 10 performs processing for providing functions of various services described below to the user side.
  • the storage 11 is a so-called cloud storage that stores information necessary for functioning as a cloud server for various services.
  • the storage 11 is composed of one or more storage devices. Note that the storage 11 is not limited to cloud storage, and may be any type of storage device that can be accessed by the server device 10. In the case of this embodiment, the storage 11 is a common storage corresponding to a plurality of services to be described later, and stores information used by the plurality of services. Details will be described later.
  • the user device 2 in FIG. 1 is an example of a device owned (or used) by one user, and includes a camera 21 and a terminal device 22 such as a smartphone, a PC, or a tablet device.
  • a terminal device 22 such as a smartphone
  • a terminal device 22 such as a smartphone
  • one or more cameras 21 owned by the user are assumed.
  • the camera 21 is an imaging device such as a digital still camera or a digital video camera. Further, the camera 21 may be of any type, such as a business camera, a compact camera, a single-lens reflex camera, a mirrorless camera, a surveillance camera, or a fixed camera.
  • the terminal device 22 is capable of communicating with the server device 10 via, for example, the Internet, a home network, a LAN (Local Area Network), a mobile communication network, or other various networks.
  • the Internet for example, the Internet, a home network, a LAN (Local Area Network), a mobile communication network, or other various networks.
  • LAN Local Area Network
  • mobile communication network or other various networks.
  • the service referred to in this disclosure comprehensively refers to an information presentation service in which a user presents various information through application software or web browsing on the terminal device 22, and various functions realized in conjunction with the presented information.
  • an example will be described in which a plurality of services provided by the server system 1 cooperate, and each service has a function related to the camera 21 owned (or used) by the user. .
  • a user using the camera 21 can transfer images and various information from the camera 21 to the terminal device 22 through communication between the camera 21 and the terminal device 22. Further, various information can be transferred from the terminal device 22 to the camera 21. The user can also use the terminal device 22 to upload images and various information to the server system 1. Note that the camera 21 may be configured to be able to directly upload images and various information to the server system 1. Furthermore, by starting the application software or starting the web browser on the terminal device 22, the user can view the screen of the service page provided by the server device 10 and execute processing of various functions provided by the service.
  • Any communication method may be used between the camera 21 and the terminal device 22 as long as images, metadata, programs, etc. can be communicated between the camera 21 and the terminal device 22.
  • mutual information communication is possible using short-range wireless communications such as Bluetooth (registered trademark), Wi-Fi (Wireless Fidelity: registered trademark), NFC (Near Field Communication: registered trademark), and infrared communication. It may also be a thing.
  • the camera 21 and the terminal device 22 may be able to communicate with each other through wired connection communication such as a wired LAN.
  • FIG. 1 shows a camera 21 and a terminal device 22 as the user equipment 2 of one user, for example, many users having the camera 21 and the terminal device 22 can view and process information using the services provided by the server system 1. You can enjoy the functions.
  • FIG. 2 schematically shows a portal service 30, a network service 31, a marketplace 32, and a content production tool 33 as a plurality of services provided by the server system 1.
  • these are independent services, and the user can use each by signing in.
  • the user can arbitrarily transition from the portal service 30 to the network service 31, marketplace 32, and content production tool 33. It is desirable that there is no need to sign in again during the transition.
  • the portal service 30, marketplace 32, or content creation tool 33 the portal service 30, marketplace 32, or content creation tool 33. In other words, if you sign in to one service, you can sign in to other services as well.
  • Each of these services has a function that cooperates with the camera 21 used by the user who signs in.
  • the portal service 30 includes, for example, a function of uploading image data taken with the camera 21 and cloud storage, a function of facilitating settings related to the camera 21, and the like.
  • FIG. 3 schematically shows an example of the use of the portal service 30, which is one of the starting points of the service.
  • the portal service 30 provided by the server system 1 as a cloud server is realized by the portal application 30A, which is application software installed on the terminal device 22. It is also realized, for example, as a portal site 30B by web browsing using a browser on the terminal device 22.
  • the terminal device 22 can execute the camera cooperation function using the portal application 30A while the communication connection between the terminal device 22 and the camera 21 is established. Furthermore, for example, even when the terminal device 22 is not communicatively connected to the camera 21, it can view various information, manage accounts, present notifications, etc. through the portal site 30B.
  • the portal service 30 may be implemented only by the portal application 30A or only by the portal site 30B. Further, the portal application 30A and the portal site 30B may be configured to mutually transition depending on the processing function to be executed.
  • FIG. 2 illustrates functions related to the camera 21 included in the portal service 30. These functions include a device registration function 30a, a remote photographing function 30b, a camera self-diagnosis function 30c, a camera initial setting function 30d, a camera update function 30e, and an image transfer function 30f.
  • the device registration function 30a is a function that performs a process of registering the camera 21 used by the user on the cloud side.
  • the terminal device 22 used by the user by signing in to the portal service 30 transmits device information of the camera 21 connected for communication to the server system 1, and the terminal device 22 used by the user signs in to the portal service 30. It can be stored in the storage 11 as information about the camera 21.
  • Such registration processing may be performed automatically in response to sign-in from the terminal device 22 and communication connection with the camera 21, or may be performed in response to a user's operation.
  • the camera 21 may directly communicate with the server system 1 to transmit device information and store it in the storage 11.
  • the device information to be sent for registration includes, for example, the model name, model number, serial number, name (default name of the individual or name set by the user) of each individual camera 21, version of the main body software of the camera 21, and device information. Contains information such as thumbnails. Furthermore, the device information is not limited to the camera 21, but may also be, for example, the model name, model number, year of manufacture, manufacturer, name, etc. of a lens barrel as an interchangeable lens, or other camera peripheral devices (so-called accessory devices).
  • a user can register one or more devices that he or she owns or uses, such as a camera 21 or a lens barrel, by linking them to the user's own identification information.
  • the remote shooting function 30b shown in FIG. 2 displays an operation image of the camera 21 on the terminal device 22 that the user uses by signing in to the portal service 30, and transmits operation information to the camera 21 according to the operation.
  • This is a function to This allows the user to remotely control the camera 21 using the terminal device 22.
  • the content of the operation image of the camera 21 can be made according to the model and operation function of the camera 21 that is being operated during the communication connection.
  • the camera self-diagnosis function 30c is a function for diagnosing the status, malfunctions, etc. of the camera 21.
  • the terminal device 22 transmits, for example, a device log regarding the camera 21 connected for communication to the server system 1.
  • the device log is log information recorded in the memory inside the camera according to successive operations by the microprocessor on the camera 21 side.
  • the terminal device 22 receives the device log from the camera 21 side and transfers it to the server system 1.
  • a diagnostic function by a program as the self-diagnosis logic 30c1 is activated, and a diagnostic process is executed. For example, information on diagnosis results, information on necessary countermeasures, information on repair recommendations, etc. is generated based on error results in device logs.
  • the server device 10 performs diagnosis using image data (video/still images) taken by the camera 21 to be diagnosed, uploaded, and stored in the storage 11, and provides information on the diagnosis results and necessary countermeasures. information, repair recommendation information, etc. can also be generated. The server device 10 then transmits information such as diagnosis results to the terminal device 22.
  • the terminal device 22 displays the diagnosis results. For example, it may display a message indicating that no errors were detected, or if a problem is detected, it may display necessary countermeasures and repair recommendations.
  • chatbot function 30c2 and help function 30c3 provided by the server device 10.
  • appropriate help information is provided to the terminal device 22 according to the diagnosis result.
  • the server device 10 can select FAQs (Frequently Asked Questions), support information, etc. according to the model and function of the diagnosed camera 21 and provide it to the terminal device 22.
  • the server device 10 can select help information related to the diagnosis result by the self-diagnosis logic 30c1 and provide it to the terminal device 22.
  • a lead line to the chatbot function 30c2 can be displayed together with the diagnosis results on the terminal device 22, so that when the user needs guidance via chat, appropriate support information can be provided by referring to the diagnosis results.
  • the camera initial setting function 30d shown in FIG. 2 is a function that performs initial setting operations for the camera 21 using the terminal device 22.
  • the camera 21 is designed to give priority to operations for photographing, and therefore has lower operability for setting operations than the terminal device 22 such as a smartphone.
  • menu operations and selection operations are performed using cross keys, cursor keys, etc., which tends to be cumbersome to operate.
  • the camera initial setting function 30d in the portal service 30 the user can perform initial setting operations for the camera 21 from the terminal device 22 while the camera 21 and the terminal device 22 are connected for communication. This simplifies the user's initial setting operation.
  • the camera update function 30e is a function that allows the main body software of the camera 21 to be updated via the terminal device 22.
  • the terminal device 22 acquires main body software information (name, version, etc. of the main body software) from the camera 21 that is connected for communication.
  • the terminal device 22 transmits main body software information to the server system 1 and requests confirmation of the latest main body software. If the latest main body software to be updated exists, the server system 1 notifies the terminal device 22 of the existence of the latest main body software.
  • the terminal device 22 presents this to the user, and in response to the user's update operation, downloads the main body software, transfers it to the camera 21, and completes the update.
  • a project is an image work that includes one or more images (still images or videos), links to video sites, etc.
  • images and links (contents) selected by a user are arranged according to a theme is envisioned.
  • the network service 31, marketplace 32, and content production tool 33 shown in FIG. 2 can cooperate with the portal service 30 having the above functions.
  • the network service 31 is an example of a so-called SNS (Social networking service), and is a service that allows a user to create a personal page and send information.
  • the network service 31 has the aspect of an SNS particularly related to the camera 21, and allows photographers/creators to publish their works as still images and videos, and to view the works of others. It's a service. Therefore, the network service 31 is positioned as an information transmission tool and an information viewing tool for photographers/creators.
  • the marketplace 32 is a service for buying and selling products.
  • the service provides a place to buy and sell image contents photographed by the camera 21 and projects produced.
  • application software or a license that is applied to the camera 21 or the terminal device 22 to realize a photographing function, an image processing function, etc. can be used as a product.
  • This is a service that offers products particularly suited to users who use the camera 21.
  • the content production tool 33 is a service that automatically processes image materials stored in the storage 11. For example, it is a service that assists users in creating content/projects by using AI (artificial intelligence) processing to perform scene cuts and volume adjustments for videos, color adjustments for videos and still images, image size adjustments, and various other processes. .
  • AI artificial intelligence
  • the network service 31, marketplace 32, and content production tool 33 cooperate, for example, with the portal service 30 as the center, and provide information and process various functions while sharing information.
  • the device registration function 30a, remote shooting function 30b, camera self-diagnosis function 30c, camera initial setting function 30d, camera update function 30e, and image transfer function 30f included in the portal service 30 are the network service 31, the marketplace 32, and the content production tool. 33 so that it can be activated as appropriate.
  • FIG. 7 shows an example of information contents stored in the storage 11.
  • Device information, image information, user information, messages, etc. are stored for each user, indicated as individual user identification information U1, U2, U3, . . . .
  • the device information is information related to the camera 21, lens barrel, etc. used by the user, which is registered by the device registration function 30a as described above. Such device information is referred to in each function of the portal service 30, referred to for presentation in the network service 31, and referred to for selection of products to be presented in the marketplace 32.
  • the image information includes content that is an individual image as a still image or a moving image taken by a user, information on a project created including images (content), and information related to these contents and projects.
  • Information related to content and projects includes metadata associated with the content, detailed project information (described later in Figure 47), sales information such as whether the content or project is on sale or has ended on the marketplace 32, and content production. Processing information etc. by the tool 33 are assumed.
  • This image information is used as a presentation image in the network service 31, a product in the marketplace 32, a processing target in the content production tool 33, and the like.
  • the user information includes sign-in information (including account, password, etc.), history information on the user's usage of each service, user attributes, activity base, and other various types of user-related information.
  • the user information is used for signing in to each service, displaying a welcome screen, presenting a my page in the network service 31, and the like.
  • a message is a variety of notification information sent to that user. For example, notifications generated by the portal service 30, notifications such as "likes" for projects created in the network service 31, notifications of following by others, notifications regarding sales and purchases in the marketplace 32, and image processing by the content production tool 33. Notifications and the like are stored in association with the user.
  • the server system 1 adopts a structure in which device information, image information, user information, and messages are stored for each individual user by being associated with the identification information U1, U2, . . .
  • FIG. 8 shows a configuration example of an information processing device 70 that can be configured as the server device 10 or the terminal device 22 in FIG. 1.
  • the server device 10 and the terminal device 22 can execute the processing described later by having the following configuration of the information processing device 70.
  • the camera 21 can also perform the same processing as the terminal device 22 by having the following configuration of the information processing device 70.
  • the information processing device 70 in FIG. 8 is a computer device configured as a personal computer, a workstation, a mobile terminal device such as a smartphone or a tablet, a server device or an arithmetic device in cloud computing.
  • the CPU (Central Processing Unit) 71 of the information processing device 70 executes programs stored in a nonvolatile memory section 74 such as a ROM (Read Only Memory) 72 or an EEP-ROM (Electrically Erasable Programmable Read-Only Memory), or Various processes are executed according to programs loaded from the storage unit 79 into the RAM (Random Access Memory) 73.
  • the RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
  • the CPU 71 has a function as a service compatible control section 71a.
  • the service compatible control unit 71a executes processing functions provided by these services. This indicates a control unit that performs operations.
  • GPU Graphics Processing Unit
  • GPGPU General-purpose computing on graphics processing units
  • AI artificial intelligence
  • the CPU 71, ROM 72, RAM 73, and nonvolatile memory section 74 are interconnected via a bus 83.
  • An input/output interface 75 is also connected to this bus 83.
  • the input/output interface 75 is connected to an input section 76 consisting of an operator or an operating device.
  • an input section 76 consisting of an operator or an operating device.
  • various operators and operating devices such as a keyboard, a mouse, a key, a dial, a touch panel, a touch pad, and a remote controller are assumed.
  • a user's operation is detected by the input unit 76, and a signal corresponding to the input operation is interpreted by the CPU 71.
  • a microphone is also assumed as the input section 76. Voices uttered by the user can also be input as operation information.
  • a display section 77 consisting of an LCD (Liquid Crystal Display) or an organic EL (electro-luminescence) panel, and an audio output section 78 consisting of a speaker etc. are connected to the input/output interface 75, either integrally or separately.
  • the display unit 77 is a display unit that performs various displays, and is configured by, for example, a display device provided in the casing of the information processing device 70, a separate display device connected to the information processing device 70, or the like. If the terminal device 22 is a smartphone or a tablet device, the display section 77 is provided on its housing.
  • the display section 77 may be provided in its main body case, or may be realized in the form of a separate monitor device or the like.
  • the display unit 77 displays various images, operation menus, icons, messages, etc., ie, as a GUI (Graphical User Interface), on the display screen based on instructions from the CPU 71.
  • GUI Graphic User Interface
  • the input/output interface 75 may be connected to a storage unit 79 and a communication unit 80, which are configured by an HDD (Hard Disk Drive), solid-state memory, or the like.
  • HDD Hard Disk Drive
  • solid-state memory solid-state memory
  • the storage unit 79 can store various data and programs.
  • a database can also be configured in the storage unit 79.
  • the information processing device 70 is a device that constitutes the server system 1
  • the storage 11 can be constructed using the storage section 79.
  • the communication unit 80 performs communication processing via a transmission path such as the Internet, short-range wireless communication, wired communication with peripheral devices, bus communication, etc.
  • a drive 81 is also connected to the input/output interface 75 as necessary, and a removable recording medium 82 such as a magnetic disk, optical disk, magneto-optical disk, memory card, USB memory, etc. is loaded as appropriate.
  • the drive 81 can read image data and various computer programs from the removable recording medium 82 .
  • the read data is stored in the storage section 79, and images and sounds included in the data are outputted on the display section 77 and the audio output section 78. Further, computer programs and the like read from the removable recording medium 82 are installed in the storage unit 79 as necessary.
  • a program for processing according to the present embodiment can be installed via network communication by the communication unit 80 or the removable recording medium 82.
  • the program may be stored in the ROM 72, storage section 79, etc. in advance.
  • each service in the plurality of services is, for example: - A service that is differentiated by executable function - A service that is provided independently as a billing system - A sign-in (login) can be executed independently It is defined as a service, etc.
  • portal service 30, network service 31, marketplace 32, and content production tool 33 in this embodiment are services that users can use by independently signing in. However, if you have signed in to any service, you will be able to remain signed in to other services without having to sign in again. Note that you can view pages and perform other limited functions without signing in.
  • the portal service 30, network service 31, marketplace 32, and content production tool 33 in this embodiment each have different functions, and can be said to be services that are distinguished by executable functions. Further, the portal service 30, network service 31, marketplace 32, and content creation tool 33 may be available for free, but may also be available under different fee structures.
  • FIG. 10 Processing up to sign-in
  • FIG. 11 are examples of processing when the portal service 30 is executed in the terminal device 22 having the configuration as the information processing device 70 in FIG.
  • the processing of the terminal device 22 in the following description is the processing of the CPU 71 of the information processing device 70 which is the terminal device 22.
  • the following processing of the terminal device 22 can be said to be the processing of the service support control unit 71a in FIG.
  • the processing of the server device 10 is the processing of the CPU 71 of the information processing device 70 which is the server device 10. Note that in each flowchart in the present disclosure, "c1" to "c15" indicate the connection of processes.
  • FIG. 9 shows a process from starting an application program as, for example, the portal service 30 on the terminal device 22 to signing in.
  • the application program of the portal service 30 is started on the terminal device 22.
  • a browser may be started on the terminal device 22 and the web page of the portal service 30 may be accessed.
  • step S102 the terminal device 22 performs necessary consent processing. For example, if necessary, processing is performed to obtain the user's consent to use the software or agree to the privacy policy.
  • step S103 the terminal device 22 performs pairing processing with the camera 21.
  • communication between the terminal device 22 and the camera 21 is established by short-range wireless communication such as Bluetooth.
  • a search is made for a communicable camera 21, that is, a camera 21 that exists around the terminal device 22 and has a wireless communication function.
  • a camera selection screen 100 is displayed as shown in FIG. 12A, for example, and a list of searched cameras 21 that can communicate is displayed.
  • the terminal device 22 displays a pairing button 102 and an information button 103 for the detected camera 21.
  • the pairing button 102 indicates the camera 21 that is ready for pairing, and serves as a selection button.
  • the information button 103 is a button for notifying that the camera 21 has a wireless communication function but is not in a pairing mode in which wireless communication is possible. In this case, pairing may be possible by operation on the camera 21 side.
  • the terminal device 22 executes pairing with that camera 21, and when the pairing is completed, a connection completion screen 110 as shown in FIG. 12B is displayed.
  • a continuation button 111 is provided on the connection completion screen 110, and when the user performs an operation such as tapping the continuation button 111, the terminal device 22 advances from step S103 to step S104 in FIG.
  • step S104 the terminal device 22 determines whether the camera 21 connected for communication has completed initial settings.
  • the terminal device 22 checks the status of the camera 21 through communication with the camera 21, and if the initial settings have not been completed, the terminal device 22 performs camera initial setting processing in step S105.
  • step S105 The camera initial setting process in step S105 is shown in detail in FIG.
  • step S170 the terminal device 22 displays the camera setup screen 120.
  • FIG. 13A shows an example of the camera setup screen 120.
  • a date/time/display setting section 121 On the camera setup screen 120, a date/time/display setting section 121, a device name setting section 122, an automatic power OFF temperature setting section 123, a cancel section 124, and a setup button 125 are displayed.
  • the date/time/display setting section 121 is a display item for setting the year, month, day, and time of the internal clock of the camera 21.
  • the device name setting section 122 is a display item for the user to set an arbitrary name for the camera 21.
  • the automatic power-off temperature setting section 123 is a display item for the user to set the mode for the automatic power-off temperature of the camera 21.
  • the cancel section 124 is a display item for canceling the current initial settings.
  • the setup button 125 is an initial setting execution button.
  • the terminal device 22 waits for operations in steps S171 to S175 in FIG. 11.
  • step S171 When the user operates the forward button 52 for the date/time/display setting section 121, the terminal device 22 advances from step S171 to step S180.
  • “operations" on the screen in the embodiments mainly include tap operations and click operations, but the actual mode of operation is not limited. It may be an operation such as a swipe, a flick, a double tap, or a drag, or it may be an operation using a touch pen or the like.
  • step S180 the terminal device 22 displays the date/time/display setting screen 130 of FIG. 13B.
  • This date/time/display setting screen 130 displays an input field 131 for inputting a display format, a pull-down button 132 thereof, a date/time 133, and a summer time mode 134.
  • the user can select "Y-MD”, “M (English)-DY”, “M-DY”, “D-MY” as the display format by operating the pull-down button 132, for example. etc. can be selected.
  • “Y” is the year (Western calendar)
  • "M” is the month
  • “M (English)” is the English notation of the month such as “JANUARY”
  • “D” is the day.
  • the date and time 133 displays the current date and time. This causes the current date and time of the internal clock of the terminal device 22 to be displayed. The date and time are displayed in the display format currently selected in the input field 131.
  • the summer time mode 134 displays whether the current summer time mode in the terminal device 22 is "on” or "off". Therefore, the user does not need to input the current date and time and daylight saving time mode.
  • step S180 of FIG. 11 the terminal device 22 monitors the user's operation on the input field 131, that is, the selection operation from the pull-down button 132 and the pull-down menu. Then, the display format of the date and time 133 is changed and stored in accordance with the operation.
  • step S180 the terminal device 22 also monitors the user's operation of the back button 51, and if there is an operation, the process returns from step S181 to step S170 and displays the camera setup screen 120 of FIG. 13A. Therefore, the user can return to the original screen after setting the display format or without changing the display format.
  • step S185 the terminal device 22 displays the device name setting screen 140 of FIG. 14A.
  • this device name setting screen 140 an input field 141 for inputting a device name is displayed.
  • the user can arbitrarily input the name of the camera 21.
  • the name acquired through communication from the camera 21 is displayed as a default name in the input field 141.
  • the terminal device 22 performs character display and storage processing in response to the user's input operation on the input field 141.
  • the terminal device 22 displays a keyboard for operation in response to a tap on the input field 141, etc., allows the user to input characters and symbols, and stores a character string in response to the input.
  • voice input may be possible.
  • step S185 the terminal device 22 also monitors the user's operation of the back button 51, and if there is an operation, the process returns from step S186 to step S170, and the display returns to the camera setup screen 120 of FIG. 13A. Therefore, the user can return to the original screen after inputting the camera name, or without inputting it and leaving the default.
  • step S188 the terminal device 22 displays an automatic power OFF temperature setting screen (not shown).
  • the user can arbitrarily select "Standard” or "High” as the temperature setting at which the camera 21 is automatically turned off. For example, when taking pictures using a tripod, the recording time can be increased by setting the automatic power off temperature to "high".
  • step S188 the terminal device 22 monitors the user's selection operation of "standard” and “high” and stores the selection state. Further, in step S188, the terminal device 22 monitors the user's operation of the back button, and if there is an operation, the process returns from step S189 to step S170 and displays the camera setup screen 120 of FIG. 13A. Therefore, the user can return to the original screen after selecting the automatic power-off temperature or leaving the default.
  • the terminal device 22 If the terminal device 22 detects an operation of the canceling unit 124 by the user, the terminal device 22 finishes the processing of FIG. 11 from step S174, and proceeds to step S106 of FIG. 9.
  • step S190 the terminal device 22 transmits the currently stored date and time, date and time display format, summer time mode, device name, and automatic power OFF temperature setting to the camera 21. This causes the camera 21 to perform initial settings based on the transmitted information. Then, the terminal device 22 displays a setup completion screen 150 as shown in FIG. 14B in response to the notification from the camera 21 that the initial settings have been completed.
  • a start button 151 is displayed on the setup completion screen 150.
  • the terminal device 22 ends the process of step S190 in FIG. 11 and proceeds to step S106 in FIG. 9.
  • the user Since the initial setting of the camera 21 is performed on the terminal device 22 as described above, the user only needs to select the display format for the date and time of the internal clock of the camera 21. This is because the current date and time and daylight saving time mode reflect the current time and daylight saving time mode of the internal clock of the terminal device 22. Furthermore, the user can input a character string that becomes the name of the camera 21 using the terminal device 22 . Therefore, the user can use the keyboard or the like on the screen of the terminal device 22 when inputting a character string. Furthermore, automatic power-off temperature settings can be made with a simple selection on the screen. By using the terminal device 22 in this manner, the initial settings of the camera 21 can be performed with a simple and smooth operation.
  • step S106 of FIG. 9 the terminal device 22 executes a sign-in process.
  • the terminal device 22 executes a sign-in process for the portal service 30 in response to the user's input of his or her own account and password.
  • the terminal device 22 displays a screen as a so-called catalog page.
  • the home screen 200 in FIG. 15 displays a title section 201, an operate camera button 202, an imported image area 203, an uploaded image area 204, a recommendation service area 205, etc.
  • the operate camera button 202 is a button for transitioning to a device screen 230, which will be described later.
  • the imported image area 203 displays some of the images that the signed-in user has imported from the camera 21 to the terminal device 22 in the past.
  • a view button 206 for viewing all imported images is also displayed.
  • the uploaded image area 204 displays some of the images that the signed-in user has uploaded to the server system 1 in the past.
  • a viewing button 207 for viewing all uploaded images is also displayed.
  • the recommendation service area 205 displays information about services recommended to the signed-in user.
  • common menus and icons are displayed as necessary on the home screen 200 and each screen described below. 15, for example, there are a menu icon 53, a user icon 54, and a notification icon 55 at the top of the screen.
  • a home icon 60, a camera icon 61, an application icon 62, a storage icon 63, a network icon 64, etc. are also displayed at the bottom of the screen.
  • the home icon 60, camera icon 61, app icon 62, storage icon 63, and network icon 64 displayed on each screen are icons that execute screen or service transitions.
  • the home icon 60 is an icon for transitioning to the home screen 200.
  • the camera icon 61 is an icon for transitioning to the device screen 230 in FIG. 20.
  • the application icon 62 is an icon for transitioning to the store screen 340 in FIG. 28.
  • the storage icon 63 is an icon for transitioning to the storage screen 350 in FIG. 30A or 30B.
  • the network icon 64 is an icon for transitioning to the network service 31 screen in FIG. 33. In the home screen 200 of FIG. 15, the display mode of the home icon 60 is different from the others, indicating that the home screen 200 is currently displayed and that no screen transition is performed by operating the home icon 60.
  • the terminal device 22 When displaying such a home screen 200, the terminal device 22 performs an operation monitoring loop process from step S111 to step S120 in FIG.
  • the terminal device 22 transitions from step S111 to the device screen 230, which will be described later.
  • the operation for transitioning to the device screen 230 is, for example, operation of the operate camera button 202 or operation of the camera icon 61.
  • the terminal device 22 transitions from step S112 to the store screen 340, which will be described later.
  • the operation for transitioning to the store screen 340 is, for example, the operation of the app icon 62.
  • the store screen 340 is, for example, a page for buying and selling products provided by the marketplace 32.
  • the terminal device 22 transitions from step S113 to the storage screen 350, which will be described later.
  • the transition operation to the storage screen 350 is an operation of the viewing buttons 206 and 207 or an operation of the storage icon 63.
  • An operation such as a tap on an image in the imported image area 203 or an image in the uploaded image area 204 may be used as an operation for transitioning to the storage screen 350.
  • the terminal device 22 transitions from step S114 to a screen for the network service 31 (for example, a gallery screen 400 described below).
  • the operation for transitioning to the network service 31 is, for example, the operation of the network icon 64.
  • the terminal device 22 proceeds from step S115 to menu processing in step S130. For example, the terminal device 22 displays menu items, displays a screen according to the operation, changes settings of the menu items, etc., and returns to step S110 according to a predetermined operation.
  • the terminal device 22 proceeds from step S116 to processing the notification screen in step S135. For example, the terminal device 22 displays a notification screen 210 as shown in FIG. 16A. On the notification screen 210, a list of messages is displayed in a list section 211, for example. Further, a setting button 212 and a close button 56 are displayed on the notification screen 210.
  • step S135 the terminal device 22 performs processing according to the user's operation on the notification screen 210. For example, in response to an operation in which a certain message is selected in the list section 211, the terminal device 22 displays a notification details screen 220 as shown in FIG. 16B to display detailed contents of the message. For example, the terminal device 22 displays detailed contents in text etc. in the notification details 221. Further, if there is a website etc. that can be viewed with a browser, the terminal device 22 enables screen transition using the transition button 222. The terminal device 22 also displays a trash can icon 223, and when the trash can icon 223 is operated, deletes the message. If the return button 51 is operated, the terminal device 22 returns the display to the notification screen 210.
  • step S135 the terminal device 22 displays the setting contents in response to the operation of the setting button 212 on the notification screen 210, changes the settings, etc. in accordance with the operation. Further, the terminal device 22 returns to step S110 in response to the operation of the close button 56, and returns to displaying the home screen 200.
  • the terminal device 22 displays not only messages from the portal service 30 but also messages from other services. For example, this includes notifications such as "likes" for projects created in the network service 31 (described later), notifications of following by others, notifications regarding sales and purchases in the marketplace 32, notifications regarding image processing by the content production tool 33, etc. Notification is made on the notification screen 210 in the portal service 30. That is, the terminal device 22 reads the message for the signed-in user stored in the storage 11 and displays the list section 211 of the notification screen 210. As mentioned above, the storage 11 stores messages generated by each service for each user, so by having the terminal device 22 display the messages stored in the storage 11, the user can receive notifications from multiple services. They can be viewed all at once on the notification screen 210 of the portal service 30.
  • the terminal device 22 proceeds from step S117 to browser activation processing in step S140.
  • the information displayed in the recommendation service area 205 includes web page links, etc., and the terminal device 22 starts up a browser in response to an operation to display a related introduction web page. This allows the user to know detailed information about the recommended service. Note that after that, depending on the user's operation, browsing may be continued, or the browser may be closed or minimized to return to the home screen in step S110.
  • device registration may be performed by executing a predetermined display from the home screen 200.
  • the terminal device 22 acquires camera information, information about the attached lens barrel, information about connected peripheral devices, etc. from the camera 21 that is connected for communication.
  • the device information in the storage 11 is then referred to, and if the detected device is not registered in the storage 11, the process advances from step S118 to step S145 and registration processing is performed.
  • the registration process first, a notification that the user can register and an operation button are displayed. For example, a message indicating that the camera 21 with the name " ⁇ " can be registered and a registration execution button are displayed.
  • the device information of the detected camera 21 is transmitted to the server device 10, and is stored in the storage 11 as device information linked to the user. Then, the process returns to step S110.
  • a device registration button may be provided on the home screen 200, and when the user operates the device registration button, the process may proceed from step S118 to step S145.
  • the terminal device 22 first receives camera information from the camera 21 connected for communication, information on the lens barrel attached, information on the peripheral devices connected, etc. get. Then, referring to the device information in the storage 11, if the detected device is not registered in the storage 11, device information such as the camera 21 is sent to the server device 10, and the device information linked to the user is sent to the storage 11. to be memorized. If the currently connected camera 21 or the like has already been registered, the user is notified of this fact. Then, the process returns to step S110.
  • step S120 the terminal device 22 monitors the termination process. For example, when an operation to terminate the portal service 30, a sign-out operation, etc. is performed, the terminal device 22 proceeds from step S120 to step S155, performs termination processing, and terminates the processing related to the portal service 30.
  • step S111 in FIG. 10 proceeds from step S111 in FIG. 10 to step S200 in FIG. 17 in response to a transition operation to the device screen on the home screen 200, and displays the device screen 230.
  • An example of the device screen 230 is shown in FIG. Note that the process may proceed to step S200 in FIG. 17 from a screen other than the home screen 200 (store screen 340, storage screen 350, network service 31 screen, etc.).
  • the device screen 230 also displays a menu icon 53, a user icon 54, a notification icon 55, a home icon 60, a camera icon 61, an app icon 62, a storage icon 63, a network icon 64, and the like. These icons are also displayed on each screen that will be described below, including this device screen 230. Although a duplicate explanation regarding the operation of these icons will be avoided, the same processing as that described for the home screen 200 is performed.
  • the display mode of the camera icon 61 is made to be different from the others, indicating that the device screen 230 is currently displayed and that no screen transition is performed by operating the camera icon 61.
  • the camera information display section 231 displays information about the camera 21 received from the camera 21 that is connected for communication. For example, the camera information display section 231 displays the thumbnail and icon of the camera 21, the name of the camera 21 set in the above-mentioned initial settings, the current connection state, the remaining recording capacity, the remaining battery capacity, and the like. This allows the user to recognize the status of the camera 21 during communication connection.
  • the device screen 230 also displays an add camera icon 232, a device list icon 233, a setup icon 234, a remote button 235, a view/import button 236, a setup button 237, and a self-diagnosis button 238.
  • the terminal device 22 performs the operation monitoring loop processing of steps S201, S202, S203, and S204 in FIG. 17, steps S205 and S206 in FIG. 18, and step S207 in FIG. .
  • FIGS. 17, 18, and 19 do not show processes corresponding to all user operations on the device screen 230.
  • processes corresponding to operations on the home icon 60, camera icon 61, app icon 62, storage icon 63, and network icon 64 are omitted.
  • FIG. 18, and FIG. 19 merely show extracted processes corresponding to some operations on the device screen 230.
  • the terminal device 22 proceeds from step S201 in FIG. 17 to step S210 and acquires device information. That is, the terminal device 22 communicates with the server device 10 and acquires device information stored in the storage 11 in association with the user.
  • step S211 the terminal device 22 displays the owned device list screen 240 as shown in FIG. 21A based on the acquired device information, and performs processing according to the operation on the screen.
  • a list of registered devices such as the camera 21 is displayed in the device list section 241.
  • a menu button 243 is displayed for each device listed in the device list section 241.
  • the terminal device 22 performs a process prepared in the menu in response to the operation of the menu button 243.
  • Menu items include, for example, displaying explanations of functions that can be executed by the portal service 30 corresponding to the device, transitioning to the website of the device's instruction manual, displaying lens compatibility information, and compatibility with accessories (peripheral devices). It is assumed that information will be displayed.
  • an edit button 242 is displayed on the owned device list screen 240.
  • the terminal device 22 displays an editing screen for the device list in response to the operation of the edit button 242, and performs processing corresponding to the editing operation. Further, the terminal device 22 returns from step S212 to step S200 in response to the operation of the close button 56, and returns to the display on the device screen 230.
  • step S210 If the user operates the device list icon 233 with no device information registered, the terminal device 22 displays in step S210, as shown in FIG. 21B, that there is no registered device. Then, in response to the operation of the close button 56, the process returns from step S212 to step S200, and the display is returned to the device screen 230.
  • step S220 If the operation of the view/import button 236 is detected on the device screen 230, the terminal device 22 proceeds from step S202 to step S220, and acquires information on the image data stored in the camera 21 through communication with the camera 21. Then, in step S221, a view/import screen 250 as shown in FIG. 22 is displayed.
  • the view/import screen 250 displays a condition display section 251, number of images 255, filter button 253, image list section 252, import button 254, and the like.
  • the applied filter conditions are displayed in the condition display section 251.
  • the shooting date, shooting date range, image format, etc. are displayed as conditions.
  • a filter condition is selected according to the operation of the filter button 253.
  • the image list section 252 displays a list of thumbnails of image data extracted under the filter conditions from among the images recorded in the camera 21. The user can perform check-on/check-off operations for each thumbnail by tapping or the like.
  • the terminal device 22 displays the view/import screen 250 as described above and performs a process corresponding to the user's operation. For example, filter selection, display of the image list section 252 according to filter conditions, display according to check-on/off of thumbnails, etc. are performed. Further, in response to the operation of the capture button 254, the terminal device 22 performs a process of capturing image data corresponding to the thumbnail that is checked at that time from the camera 21. Further, the terminal device 22 returns from step S222 to step S200 in response to the operation of the return button 51, and returns to the display on the device screen 230.
  • the terminal device 22 can transfer the image captured from the camera 21 using the view/import screen 250 to the server system 1 and store it in the storage 11.
  • an image captured by the camera 21 by the terminal device 22 may be automatically uploaded to the storage 11, and the terminal device 22 and the storage 11 may be stored in a synchronized state.
  • Synchronization here means that the image data stored in the terminal device 22 and the storage 11 are maintained to have the same data content. Note that it is also possible to synchronize the device information described above.
  • the images captured by the terminal device 22 into the camera 21 are not automatically uploaded, but are sent from the terminal device 22 to the server system 1 and stored in the storage 11 according to the user's selection and upload operation. You can do it like this.
  • step S230 checks the communication state with the camera 21, and determines the camera 21 to be remotely controlled.
  • step S231 the terminal device 22 determines usable functions according to the model of the camera 21 targeted for remote control. Then, the terminal device 22 displays a remote operation screen 260 as shown in FIG. 23 in accordance with the operation function of each model of the camera 21 in step S232.
  • the remote operation screen 260 is a screen that includes a monitor section 261 and an operation section 262.
  • the monitor unit 261 displays image content displayed on the viewfinder or monitor screen of the target camera 21.
  • the user can check the same image as when using the camera 21 from the image on the monitor unit 261.
  • a through image (captured image), a menu screen, various icons, etc. from the camera 21 are displayed in the same manner as the camera 21. Images to be displayed are received from the camera 21 via communication.
  • Various operators for the camera 21 are displayed on the operation unit 262.
  • basic operation buttons such as a shutter button, focus button, and zoom button, and operators such as shutter speed, EV, F value, ISO sensitivity, white balance, and shooting mode are displayed.
  • the displayed controls are made to differ depending on the model of the remote control target.
  • there are functions that may or may not be provided depending on the model such as a special zoom function such as stepwise zoom, or a tracking focus function. Therefore, the controls for the functions that can be operated on the model are displayed in accordance with the model.
  • the operation unit 262 is displayed as a group of operators that match the camera 21 to be operated, and an operation environment that is easy to use for the user can be provided.
  • the terminal device 22 sends the model information of the camera 21 targeted for remote control to the server system 1, and receives and displays information on the remote control screen 260 corresponding to the camera 21 from the server system 1.
  • the terminal device 22 stores the operation functions for each model of the camera 21, and when the camera 21 to be remotely controlled is determined, the terminal device 22 sets the contents of the operation unit 262 according to the model of the camera 21. is also possible.
  • the terminal device 22 transmits the model information of the camera 21 to be remotely controlled to the server system 1, receives information on the operating function of the camera 21 from the server system 1, and adjusts the contents of the operating section 262 according to the information. It is also possible to set .
  • the terminal device 22 displays the remote operation screen 260 according to the model of the camera 21 as described above, and also sends operation information to the camera 21 in accordance with the user's operation on the operator of the operation unit 262. Perform processing to send. Further, the terminal device 22 returns from step S233 to step S200 in response to the operation of the return button 51, and returns to the display on the device screen 230.
  • step S204 If the operation of the setup button 237 is detected on the device screen 230, the terminal device 22 proceeds from step S204 to step S240, and displays the camera setup screen 120 as shown in FIG. 24A.
  • the terminal device 22 confirms the communication connection state with the camera 21, and if the communication connection is in progress, displays the location information interlock setting section 271 and the transfer notification setting section 272 as the setup screen 270.
  • the terminal device 22 displays the transfer notification setting screen 290 of FIG. 24B.
  • This transfer notification setting screen 290 is a screen for making settings for notifying the terminal device 22 when the camera 21 is selected and image transfer is performed, and a transfer start notification setting button 291 is displayed. This allows the user to select whether to turn the transfer start notification on or off.
  • the return button 51 on the transfer notification setting screen 290 is operated, the terminal device 22 returns to the setup screen 270 in FIG. 24A.
  • the terminal device 22 displays the location information linkage setting screen 280 of FIG. 25A.
  • This location information linkage setting screen 280 is a screen for making settings to link the location information of the terminal device 22 with the camera 21, and a location information linkage setting button 281 is displayed.
  • the terminal device 22 further displays an automatic time correction button 282 and an automatic area correction button 283, as shown in FIG. 25B. The user can select whether to turn on or off the automatic time correction and automatic area correction functions.
  • the return button 51 on the location information linkage setting screen 280 is operated, the terminal device 22 returns to the setup screen 270 in FIG. 24A.
  • step S240 the terminal device 22 performs the above-described screen display, screen transition, and process of changing the settings of the camera 21 according to the operation, that is, transmitting information about the setting change to the camera 21.
  • the user can change the settings of the camera 21 using the terminal device 22, which has better operability than the camera 21.
  • location information linkage settings and transfer notification settings are listed as setting items that can be changed from the setup screen 270, other items may also be settable.
  • the terminal device 22 returns from step S241 to step S200 in response to the operation of the return button 51 on the setup screen 270, and returns to the display on the device screen 230.
  • the terminal device 22 proceeds from step S205 in FIG. 18 to step S250 and performs a pairing process.
  • the terminal device 22 first searches for a communicable camera 21, that is, a camera 21 that exists around the terminal device 22 and has a wireless communication function, as in step S103 of FIG. Then, in step S251 of FIG. 18, the camera selection screen 100 described with reference to FIG. 12A is displayed, and a list of searched cameras 21 that can communicate is displayed.
  • the terminal device 22 performs a process of adding the selected camera 21 as a registered device. That is, the terminal device 22 proceeds from step S252 to step S253, transmits the device information of the selected camera 21 to the server system 1, and registers it in the storage 11 in association with the user. Note that if information on the lens barrel and peripheral devices is also obtained through communication with the camera 21, such device information may also be transmitted to the server system 1 and registered in the storage 11.
  • the terminal device 22 In response to the user performing an operation to close the camera selection screen 100 or the registration notification screen, the terminal device 22 returns from step S254 to step S200 in FIG. 17 and returns to displaying the device screen 230.
  • the device information of the camera 21 may be transmitted to the server system 1 and registered in the storage 11 in association with the user. Furthermore, if the newly paired camera 21 during sign-in is unregistered, the terminal device 22 sends the device information of the camera 21 to the server system 1, and links it to the user in the storage 11. You may also register it. In other words, device registration may be performed automatically instead of by operating the camera addition icon 232. Of course, when attempting to automatically register a device, it is preferable to display a screen asking the user whether to register or not, and to process according to the answer.
  • the terminal device 22 determines whether or not the main body software for the device has been updated. For example, the terminal device 22 acquires main body software information from the camera 21 displayed on the device screen 230 and connected for communication. The terminal device 22 then transmits main body software information to the server system 1 and requests confirmation of the latest main body software. If the latest main body software to be updated exists, the server system 1 notifies the terminal device 22 of the existence of the latest main body software. If it is determined through such processing that new main body software exists, the terminal device 22 proceeds from step S206 in FIG. 18 to step S260, and issues an update notification.
  • the terminal device 22 displays an update notification screen 300 in FIG. 26A to inform the user that the camera 21 can be updated.
  • the update notification screen 300 includes a next button 301, which allows the user to perform an update operation.
  • step S261 the terminal device 22 determines whether downloading is to be performed or not, depending on the user's operation.
  • the terminal device 22 returns from step S261 to step S200 in FIG. 17 without executing the download.
  • the terminal device 22 proceeds from step S261 in FIG. 18 to step S262 and performs a download process. That is, the main body software to be updated is downloaded from the server system 1.
  • the terminal device 22 displays a download screen during the download, and displays the download completion screen 310 of FIG. 26B upon completion of the download.
  • the download completion screen 310 includes a transfer button 311.
  • step S263 the terminal device 22 determines whether to transfer the main body software as upload data.
  • the terminal device 22 returns from step S263 to step S200 in FIG. 17 without executing the transfer.
  • the terminal device 22 When the user operates the transfer button 311 on the download completion screen 310, the terminal device 22 proceeds from step S263 to step S264 in FIG. 18, and performs a process of transferring the downloaded main body software to the camera 21. Then, in response to the completion of the transfer, the terminal device 22 displays the update completion screen 320 of FIG. 26C in step S265. When the user operates the close button 321 or the close button 56 on the update completion screen 320, the terminal device 22 returns from step S266 to step S200 in FIG. 17.
  • the terminal device 22 proceeds from step S207 in FIG. 19 to step S270, and performs a process of transmitting a diagnosis request to the server system 1. That is, the terminal device 22 transmits to the server system 1 the device log acquired from the camera 21 connected for communication and the device information of the camera 21 (model name, manufacturer name, etc.).
  • the server device 10 When the server device 10 receives the diagnosis request in step S301, it acquires the device information and device log of the camera 21 in step S302, and performs diagnostic processing in step S303. The server device 10 generates information on diagnosis results, information on necessary countermeasures, information on repair recommendations, etc. based on the error history of the device log. The server device 10 can also perform diagnosis using image data that has been captured by the camera 21 to be diagnosed and uploaded. Then, the server device 10 transmits the diagnosis result to the terminal device 22 in step S304.
  • the terminal device 22 receives the diagnosis result in step S271, and displays the diagnosis result in step S272.
  • the diagnosis results, countermeasures, etc. are displayed to the user.
  • a chatbot function 30c2 for inquiries or a help button may be displayed, and cooperation with the chatbot function 30c2 and help function 30c3 described in FIG. 5 may be performed depending on the operation. .
  • the terminal device 22 returns from step S273 to step S200 in FIG. 17.
  • the user can easily check the status of the camera 21 to be used using the user interface of the terminal device 22. It becomes like this.
  • step S112 in FIG. 10 the store screen 340
  • the store screen 340 may be accessed from a screen other than the home screen 200 (device screen 230, storage screen 350, network service 31 screen, etc.).
  • the store screen 340 is a screen where products can be bought and sold.
  • the store screen 340 may be a screen presented within the portal service 30 in cooperation with the marketplace 32, or may be a screen displayed after transitioning from the portal service 30 to the marketplace 32.
  • the terminal device 22 in response to a transition operation to the store screen 340 on the home screen 200, the terminal device 22 proceeds from step S112 in FIG. 10 to step S280 in FIG. get. That is, the terminal device 22 requests the server device 10 for product information related to the camera 21, lens barrel, and peripheral devices registered for the user, and receives the corresponding information.
  • the product information here includes, for example, software products such as application programs and licenses adapted to the camera 21 owned by the user. Further, physical objects such as peripheral equipment of the camera 21 or a compatible lens barrel may be used as products.
  • Another person's project (image collection) generated by the network service 31 described later may be used as a product.
  • recommended projects may be selected as products that are presented according to the tastes, genres, etc. of the signed-in user, for example.
  • the terminal device 22 displays the store screen 340 in step S281.
  • An example of the store screen 340 is shown in FIG.
  • the display mode of the app icon 62 is made different from the others, indicating that the store screen 340 is currently displayed and that screen transitions will not be made by operating the app icon 62.
  • application programs as products are presented as an application list 341, for example. Further, licenses as products are presented in the license list 342. In addition, a list of projects, a list of related items, etc. may be displayed.
  • the terminal device 22 proceeds from step S282 to step S283 in response to the user's operation on the application program etc. presented as a product, and performs corresponding processing.
  • the corresponding processing may include, for example, displaying detailed information, displaying seller information, purchasing processing, and payment processing.
  • the corresponding process may be executed by transitioning to the marketplace 32.
  • FIG. 29 Next, the process when transitioning from step S113 in FIG. 10 to the storage screen 350 (FIGS. 30A and 30B) will be described with reference to FIG. 29.
  • the storage screen 350 may be accessed from a screen other than the home screen 200 (device screen 230, store screen 340, network service 31 screen, etc.).
  • Storage screen 350 is a screen that presents stored images.
  • the terminal device 22 in response to a transition operation to the storage screen 350 on the home screen 200, the terminal device 22 proceeds from step S113 in FIG. 10 to step S310 in FIG. The process advances to step S311 or step S312.
  • the terminal device 22 proceeds to step S311 and displays a list of images captured from the camera 21 to the terminal device 22.
  • a storage screen 350 is displayed as shown in FIG. 30A.
  • the storage screen 350 is provided with a local tab 351 and a cloud tab 352, and in step S311, the storage screen 350 is displayed with the local tab 351 selected.
  • step S310 If the current setting is cloud storage in step S310, the terminal device 22 proceeds to step S312 and displays a list of images uploaded to the server system 1. For example, as shown in FIG. 30B, the storage screen 350 is displayed with the cloud tab 352 selected.
  • step S313 the terminal device 22 returns from step S313 to step S310, and proceeds to step S311 or step S312 depending on the selected tab. Therefore, depending on the operation of the local tab 351 and cloud tab 352, the state shown in FIG. 30A and the state shown in FIG. 30B are switched.
  • the storage icon 63 is displayed in a different manner from the others, indicating that the storage screen 350 is currently displayed and that screen transitions will not be made by operating the storage icon 63.
  • a list section 353 on the storage screen 350 displays a list of image data as thumbnails. Further, along with each thumbnail, the format of the image data (RAW data, JPEG data, etc.) and file name are displayed.
  • Images displayed in the list section 353 can be extracted by setting filter conditions.
  • Filter conditions are shown in the condition display section 354. For example, shooting date and time, shooting date and time range, data format, etc. are displayed as conditions.
  • a filter condition is selected according to the operation of the filter button 355.
  • the number 357 of images displayed in the list section 353 is also displayed.
  • a selection button 356 is provided on the storage screen 350, and when the operation of the selection button 356 is detected, the terminal device 22 proceeds from step S314 to step S320. In step S320, the terminal device 22 performs selection processing.
  • the terminal device 22 displays an image selection screen 360 as shown in FIG. 31 in step S320.
  • a check box 365 is displayed for each image in the list section 353, and an all selection box 364 for all items is also displayed.
  • a delete button 363 and a selection number 361 are displayed on the image selection screen 360.
  • step S320 the terminal device 22 performs processing to check on/off the check box 365 and display it in response to the user's operation on the image. Further, the terminal device 22 performs setting and displaying of check boxes 365 for all images at once on/off in response to the user's operation of the all selection box 364. This allows the user to arbitrarily select images in local storage or cloud storage. The terminal device 22 displays the number of selected images as a selection number 361.
  • the terminal device 22 monitors the operation of the delete button 363 in step S321. If the operation of the delete button 363 is detected, the terminal device 22 advances to step S322 and performs deletion processing.
  • step S320 If the process proceeds to step S320 by operating the selection button 356 while the local tab 351 is open, a selection is made in the list section 353 of the local tab 351 on the image selection screen 360. In this case, if the operation of the delete button 363 is detected, the terminal device 22 performs a deletion process on the image stored in the terminal device 22 in step S322. On the other hand, if the process proceeds to step S320 by operating the selection button 356 while the cloud tab 352 is open, a selection is made in the list section 353 of the cloud tab 352 on the image selection screen 360. In this case, if the operation of the delete button 363 is detected, the terminal device 22 sends a deletion request for the selected image to the server device 10 in step S322, so that the selected image is deleted from the storage 11. do.
  • step S323 If the user operates the close button 56 on the image selection screen 360, the terminal device 22 returns from step S323 to step S310, and returns to the storage screen 350 in step S311 or step S312.
  • the terminal device 22 proceeds from step S315 to step S330 and performs filter processing.
  • the terminal device 22 performs processes such as setting filter conditions according to user operations, executing filter processing, and updating display in the list section 353 using extracted images.
  • an operation method can be considered in which an upload button is provided on the image selection screen 360 of FIG. 31 for the local tab 351, and the selected image is uploaded in response to the operation of the upload button.
  • the storage screen 350 also displays a list of images stored in the connected camera 21, a list of images stored in the terminal device 22, and a list of images stored in the storage 11 as a camera tab, local tab, and cloud tab. , each may be displayable. Furthermore, when images stored in the terminal device 22 and the storage 11 are synchronized as described above, there is no need to distinguish between local tabs and cloud tabs.
  • FIG. 32 shows the processing of the terminal device 22 when the terminal device 22 transitions to the network service 31, it does not show all the processing, but only the extracted processing as an explanation of the embodiment.
  • the terminal device 22 displays the top screen of the network service 31.
  • the gallery screen 400 in FIG. 33 is the top screen of the network service 31.
  • the gallery screen 400 may be accessed from a screen other than the home screen 200 (device screen 230, store screen 340, storage screen 350, other screen of the network service 31, etc.).
  • the network service 31 has a function as an SNS as described above, and the gallery screen 400 becomes the top screen for the user who is signing in.
  • each screen of the network service 31 described below is an example of an image corresponding to a relatively wide display screen of a PC or a tablet.
  • a vertical screen like a smartphone is fine.
  • each screen of the portal service 30 described above is an example of a vertically long screen assuming a smartphone, but there is also an example of a horizontally long screen using a display unit such as a PC.
  • Each screen by the network service 31 which will be explained below, is configured by the server device 10 using device information, image information, and user information for each user stored in the storage 11, and is provided to the terminal device 22. In other words, information registered by the portal service 30 and the marketplace 32 is also reflected on the screen.
  • the screens provided by the network service 31 include a gallery screen 400, a discover screen 410, an article screen 430, a project details screen 450, a project creation screen 480, a project edit screen 500, a my page screen 600, a my page screen 640, and the like.
  • a user icon 54, notification icon 55, home icon 60, camera icon 61, app icon 62, storage icon 63, and network icon 64 are also displayed, and these operations can change the screen. transition is possible.
  • the display mode of the network icon 64 is made to be different from the others, indicating that the screen is currently the screen of the network service 31 and that the screen will not change by operating the network icon 64.
  • a gallery tab 401, a discover tab 402, and an article tab 403 are displayed, and the screen is divided between the gallery screen 400 in FIG. 33, the discover screen 410 in FIG. A switch is made.
  • FIG. 33 shows a gallery screen 400, with the gallery tab 401 selected.
  • the terminal device 22 moves from step S401 in FIG. 32 to processing on the discover screen 410. Further, when the user operates the article tab 403, the terminal device 22 moves from step S402 to processing on the article screen 430.
  • the gallery screen 400 On the gallery screen 400 in FIG. 33, a project creation button 404 is displayed.
  • the gallery screen 400 also includes areas such as a pickup gallery 405 and a recommended selection 406, in which content such as images and projects are displayed.
  • the pick-up gallery 405 displays projects and contents by creators with good reputations, projects and contents that have become a hot topic, and the like.
  • the recommended selection 406 displays projects and contents recommended to the signed-in user. For example, projects of creators in the same genre as the user, projects of creators who use the same camera 21, etc. may be displayed.
  • a creator icon 57 is displayed for the project.
  • the title, number of likes, author name, number of views, etc. will be displayed.
  • pick-up gallery 405, recommendation selection 406, etc. can introduce projects of other creators to the browsing user. Furthermore, if the project or the like to be displayed is for sale on the marketplace 32, sales information such as an on-sale icon 407 and an end-of-sale icon 408 are displayed. The terminal device 22 executes these displays based on the information transmitted from the server device 10 in step S400 of FIG.
  • the terminal device 22 performs the processes shown in steps S401 to S406 in FIG. 32 on the gallery screen 400, but transitions to the discover screen 410 or article screen 430 in steps S401 and S402 in accordance with the tab operation as described above.
  • a view all button 409 is displayed for the pickup gallery 405 and recommended selection 406, and operation of this view all button 409 also causes a transition from step S401 to the discover screen 410.
  • the terminal device 22 proceeds from step S403 in FIG. 32 to processing on a project details screen 450, which will be described later.
  • the terminal device 22 advances from step S404 to processing on a project creation screen 480, which will be described later.
  • My page screen 600 is a page that displays the user's own profile and the like. For example, if the terminal device 22 detects an operation of another person's icon 57 displayed in association with a project on the gallery screen 400, the terminal device 22 proceeds to the processing of the my page screen 640 from step S406.
  • My page screen 600 is a page that displays other people's profiles and the like for the viewing user.
  • the discover screen 410 projects extracted based on the filter conditions are displayed in the project list 418.
  • the filter conditions can be set by the user on the discover screen 410.
  • the filter conditions set in the pickup gallery 405 or recommendation selection 406 to which the view all button 409 corresponds are initially enabled, and the extraction The selected projects are displayed in the project list 418.
  • the discover screen 410 is a screen suitable for a signed-in user to search for a desired project.
  • a creator icon 57 is displayed, and when the mouse cursor is hovered over a project, the title, number of likes, author name, number of views, etc. are displayed. or something like that. Further, regarding the project, an on-sale icon 407 or an end-of-sale icon 408 is displayed depending on the sales status.
  • the project list 418 is displayed here as an example, a creator list may be displayed, or the project list 418 and the creator list may be switched.
  • the discover screen 410 displays a project creation button 411, a project/creator selection section 412, a search button 413, a text box 414, a filter button 415, a sort button 416, a tag 417, and the like.
  • the user can input any characters into the text box 414.
  • the terminal device 22 proceeds from step S501 to S520, and performs character input process according to the operation.
  • the terminal device 22 displays and stores a character string in the text box 414, for example, in response to a user's direct character input. Further, while inputting characters into the text box 414, the terminal device 22 displays a candidate window 419 that displays candidates for frequently searched keywords, as shown in FIG. Thereby, it is also possible to assist the user in inputting characters. As described above, in step S520, the terminal device 22 performs processing such as sequentially inputting characters into the text box 414 and selecting a candidate character string from the candidate window 419, and then returns to step S500.
  • tags 417 are presented as tags 417 on the discover screen 410. Frequently used words and words frequently used by the user are displayed as tags 417 in the process of step S500 while being updated sequentially. This tag 417 is used for input into the text box 414.
  • step S502 If the user operates one of the tags 417, the terminal device 22 proceeds from step S502 to step S521, performs processing to add the character string of the selected tag 417 to the text box 414, and returns to step S500. For example, when the user selects the tag 417 "car”, "car” is added to the character string in the text box 414.
  • a project/creator selection section 412 on the discover screen 410 is an operator for selecting whether to search for a project or a creator. The user can arbitrarily select either one.
  • the terminal device 22 proceeds from step S503 to step S522, and sets the search target to a project or a creator. Then, the process returns to step S500.
  • step S504 When the terminal device 22 detects the user's operation of the search button 413, the terminal device 22 proceeds from step S504 to step S523 and executes a text search process. That is, a search for a project or creator is performed using the character string input in the text box 414.
  • the terminal device 22 transmits the character string input into the text box 414 and the search target selected by the project/creator selection section 412 to the server system 1 in step S523.
  • the server device 10 searches for projects and creators (registered users) stored in the storage 11 using character strings. Searching for a project or creator uses tag information added to that project or creator.
  • search targets include "title,””overview,””tag,””equipment information (Exif: Exchangeable Image File Format),” and "explanatory text.”
  • search targets include ⁇ avatar name,'' ⁇ avatar ID,'' ⁇ self-introduction text,'' ⁇ camera and lens barrel being displayed,'' ⁇ interesting things (shooting genre),'' ⁇ activity base,'' and ⁇ shooting level.'' .
  • the server system 1 performs the search in this manner and transmits the result information to the terminal device 22.
  • the terminal device 22 receives information on the search results from the server system 1.
  • step S523 After the terminal device 22 performs such processing in step S523 and obtains the search result information, it returns to step S500 and updates the discover screen 410. That is, in the project list 418, projects resulting from the search or projects created by the creators of the search results are displayed. Also, if a list of creators is displayed, the creators in the search results will be displayed.
  • a search is performed by operating the search button 413, but an incremental search may be performed each time a character is input into the text box 414.
  • Filter conditions are set for each of the filter buttons 415 on the discover screen 410.
  • camera, lens, ISO, shutter speed, F value, focal length, etc. are prepared as filter types, and these types and values can be set as filter conditions.
  • the terminal device 22 proceeds from step S505 to step S524, and performs filtering according to the condition setting of the operated filter button 415. That is, the terminal device 22 filters the projects displayed in the project list 418, returns to step S500, and displays the project list 418 according to the filtering result.
  • the sort button 416 is an operator for sorting based on various conditions. If the operation of the sort button 416 is detected, the terminal device 22 proceeds from step S506 to step S525, and sorts the project list 418 under the selected sorting condition. In other words, the order of the projects displayed in the project list 418 is set based on the sorting conditions. The terminal device 22 then returns to step S500 and displays a project list 418 according to the sorting results.
  • possible sorting conditions include order of production date and time, order of upload, order of number of likes, order of projects by creators with a large number of followers, etc. Also, when displaying a list of creators, it is assumed that they will be sorted in descending order of number of followers.
  • step S507 If the user detects an operation in which the mouse cursor is hovered over a certain project in the project list 418, the terminal device 22 proceeds from step S507 to step S526, and performs project information display processing. For example, as mentioned above, the title, number of likes, author name, number of views, etc. will be displayed. Sales information such as an on-sale icon 407 or an end-of-sale icon 408 may be displayed. Then, the process returns to step S500.
  • FIG. 36 shows an example in which information such as the author's name and title is displayed for the project on which the mouse cursor MK is hovering.
  • the terminal device 22 moves from step S508 to processing of the project details screen 450.
  • the terminal device 22 proceeds to project creation processing from step S509.
  • step S510 When displaying the list of creators on the discover screen 410, if an operation of hovering the mouse cursor on a certain creator is detected, the terminal device 22 proceeds from step S510 to step S527, and performs creator information display processing. . For example, the creator's name, genre, base of activity, number of posts, etc. will be displayed. Then, the process returns to step S500.
  • the terminal device 22 When a list of creators is displayed on the discover screen 410, if a selection operation such as a click on a certain creator is detected, the terminal device 22 starts processing for viewing the my page screen 640 of that creator from step S511. Transition. This becomes processing for viewing a my page screen 640, which will be described later, for the terminal device 22 of the user who is signing in.
  • step S402 in FIG. 32 when the terminal device 22 proceeds from step S402 in FIG. 32 to step S550 in FIG. 37, it performs processing to display an article screen 430 as shown in FIG. 38. Then, operations such as steps S551 and S552 are monitored.
  • the article screen 430 is provided with a list section 431 that displays a list of contents such as images (videos/still images) and articles provided by the sales company. For example, content is displayed based on RSS (Rich Site Summary).
  • the terminal device 22 proceeds from step S551 in FIG. 37 to step S560, and performs processing such as starting a browser and moving to a link destination, for example.
  • a project creation button 404 is displayed on the article screen 430. If it is detected that the user has operated the project creation button 404, the terminal device 22 proceeds to project creation processing from step S552.
  • step S403 in FIG. 32 or step S508 in FIG. 34 to step S600 in FIG. 39, it performs a process of displaying a project details screen 450 as shown in FIG. 41.
  • the process may proceed from step S730 in FIG. 48 or step S730 in FIG. 54 to step S600 in FIG. 39, which will be described later.
  • the display may transition from the gallery screen 400, discover screen 410, or my page screen 600 or my page screen 640 (described later) to the project details screen 450.
  • the project details screen 450 On the project details screen 450, the project title 451 and author name 452 of the selected project are displayed.
  • the project details screen 450 one or more images (moving images or still images) constituting the project are displayed in the image display section 453.
  • the project referred to in this disclosure has the property of being an image collection in which the creator arranges content (still images, videos, links to specific videos on external video sites, etc.) according to a theme, for example, The contents of the image display section 453 can be said to be the main body of the project.
  • still images as content representative images of moving images, images corresponding to links, and the like are displayed in an order determined by the creator.
  • the explanatory text 455 displays an explanatory text input by the creator regarding the project.
  • tags 456 tags with content related to the project or content set by the creator are displayed.
  • the equipment information section 460 displays equipment such as the camera 21 used to take images of this project.
  • the creator information section 461 displays information about the creator of this project. For example, display the creator's icon, name, location (country), and links to representative projects.
  • an edit button 454 a bookmark button 457, a like button 458, a report button 459, a follow button 462, etc. are displayed.
  • the project details screen 450 may be viewed by a signed-in user in some cases, such as a project details screen 450 of a project created by the user, or a project details screen 450 created by another creator.
  • a signed-in user in some cases, such as a project details screen 450 of a project created by the user, or a project details screen 450 created by another creator.
  • the user when transitioning from my page screen 600, the user will view details of his or her own project, and when transitioning from my page screen 640, the user will view details of another person's project.
  • the gallery screen 400 or the discover screen 410 the user can view details of his or her own project or another's project by selecting a presented project.
  • the terminal device 22 allows the edit button 454 to be displayed only when a signed-in user views the project details screen 450 of his or her own project. Further, the terminal device 22 allows the bookmark button 457, like button 458, report button 459, and follow button 462 to be displayed only when viewing the project details screen 450 of another person's project. Note that on the project details screen 450 of one's own project, the number of likes may be displayed instead of the like button 458.
  • FIG. 41 shows all of these for the sake of explanation, the displayed content changes depending on whether the project is yours or someone else's.
  • the terminal device 22 When the terminal device 22 is displaying the project details screen 450 as described above in step S600 of FIG. 39, it monitors operations such as steps S601 to S610.
  • the terminal device 22 When detecting an operation of the edit button 454 by the user viewing the project details screen 450 of his or her own project, the terminal device 22 proceeds to project editing processing from step S601 in FIG. 39.
  • step S602 If the terminal device 22 detects an operation of the like button 458 by a user viewing the project details screen 450 of another person's project, the terminal device 22 proceeds from step S602 to step S616, and processes the setting or cancellation of "like". I do. The terminal device 22 then returns to step S600 and updates the number of "likes" displayed. The user can set “like” by operating the like button 458 and cancel the "like” by operating the like button 458 again.
  • the terminal device 22 When detecting an operation of the bookmark button 457 by a user who is viewing the project details screen 450 of another person's project, the terminal device 22 proceeds from step S603 to step S611, and performs processing for setting or canceling a bookmark. The terminal device 22 then returns to step S600.
  • the bookmark button 457 By operating the bookmark button 457, the user can save or cancel the bookmark of the project.
  • the terminal device 22 When detecting an operation of the follow button 462 by a user viewing the project details screen 450 of another person's project, the terminal device 22 proceeds from step S604 to step S612, and sets or cancels following for the creator of the project. Process. The terminal device 22 then returns to step S600. By operating the follow button 462, the user can follow or cancel the following of creators of interest.
  • the terminal device 22 When detecting that the user has operated the tag 456, the terminal device 22 proceeds from step S605 to step S613, performs a project search based on the contents of the operated tag 456, and transitions to a search result screen. For example, the terminal device 22 transmits information on the tag 456 to the server system 1, and receives from the server system 1 a project search result using the information on the tag. Then, display the search results.
  • the user can perform operations such as clicking on the image displayed on the image display section 453.
  • the process proceeds from step S606 to step S620 in FIG. 40, and performs full-screen mode display processing.
  • FIGS. 42 and 43 Examples of a full image display screen 470 in full screen mode are shown in FIGS. 42 and 43.
  • 43 shows a state in which the image information section 478 is displayed
  • FIG. 42 shows a state in which the image information section 478 is not displayed.
  • the image 471 is mainly displayed in a large size on the screen. Also displayed are an information button 472, a bookmark button 476, a close button 473, a next image button 474, a previous image button 475, an information close button 479, and the like.
  • the image 471 if it is a still image, it is displayed as is, but if it is a video, for example, a play/stop button, a progress bar, etc. are displayed so that the user can play the video at will. .
  • the terminal device 22 performs operation monitoring from step S621 to step S625 while displaying the full image display screen 470 in step S620 of FIG.
  • the information button 472 is an operator for displaying detailed information on an image
  • the information close button 479 is an operator for ending the display of detailed information. If the operation of the information button 472 or the information close button 479 is detected, the terminal device 22 proceeds from step S621 to step S630, and turns on/off the information display. That is, when the information button 472 is operated in the state shown in FIG. 42, the terminal device 22 causes the image information section 478 to display detailed information about the image as shown in FIG. Furthermore, if the information close button 479 or the information button 472 is operated in the state shown in FIG. 43, the terminal device 22 ends the display of the image information section 478 and returns to the state shown in FIG. After the above processing, the terminal device 22 returns to step S620.
  • the detailed information to be displayed in the image information section 478 may include, for example, the image file name, file size, rating information, resolution, information on the camera 21 that took the image, focal length, F value, EV value, ISO value, etc. Such information is suitable, for example, when a user (creator) who is browsing uses the photography of other creators as reference.
  • the terminal operation is assumed to be an image forwarding operation, and the process proceeds from step S622 to step S631, where image forwarding processing is performed. That is, the terminal device 22 displays the next image in the project when the next image button 474 is operated, and displays the previous image in the project when the previous image button 475 is operated. The terminal device 22 then returns to step S620.
  • the previous image and the next image may be displayed not only by operating the next image button 474 or the previous image button 475 but also by a swipe operation, for example, if a smartphone or the like is assumed as the terminal device 22.
  • step S632 the terminal device 22 performs a process of alternately switching between enlarged display and full-screen fit display in response to a click on a still image or the like.
  • the terminal device 22 also performs a process of changing the display position by a drag operation on the image 471.
  • the terminal device 22 also performs processes such as starting playback in response to a playback operation for a video, stopping playback in response to a stop operation, or changing the playback position by specifying the position of a progress bar.
  • the terminal device 22 may perform a process of switching the resolution of an image in response to a predetermined operation on a still image or a moving image.
  • step S624 When the terminal device 22 detects the operation of the bookmark button 476, the process proceeds from step S624 to step S633, performs processing to set or cancel a bookmark for the image being displayed, and returns to step S620.
  • the bookmark button 476 By operating the bookmark button 476, the user can save or cancel bookmarks for individual images within the project. Note that, similar to the project details screen 450, the bookmark button 476 is hidden when displaying images in a project posted by the user who is currently signed in.
  • step S625 When the terminal device 22 detects the operation of the close button 473, the process returns from step S625 to step S600 in FIG. 39, and the project details screen 450 is displayed again.
  • the process proceeds from step S607 in FIG. 39 to step S614, and performs a search using the device as a filter condition.
  • the terminal device 22 transmits information about the specified device to the server system 1.
  • the server device 10 searches for projects, images, and creators stored in the storage 11 using the device information as a key.
  • the search result information is transmitted to the terminal device 22.
  • the terminal device 22 receives information on the search results from the server system 1 and displays it as a search result screen.
  • images using the specified device projects that include images using the specified device, or creators who have registered the specified device as their own device will be displayed on the search results screen. .
  • This allows the viewer to view works and users according to the model of the camera 21, etc., and provides useful information for creators.
  • the terminal device 22 When the terminal device 22 detects an operation such as a click on the creator's icon displayed in the creator information section 461 on the project details screen 450, the terminal device 22 performs the processing of the my page screen 600 described later from step S608 in FIG. The process proceeds to the My Page screen 640.
  • the terminal device 22 When detecting an operation of the report button 459 by a user viewing the project details screen 450 of another person's project, the terminal device 22 proceeds from step S609 to step S615 and performs a report process. For example, the terminal device 22 changes to a reporting screen and enables reporting. Note that the reported project may be hidden from the user who reported it.
  • the terminal device 22 detects the operation of the return button 51 on the project details screen 450, it returns to the process of the previous screen from step S610 in FIG. For example, if the screen transitions from the gallery screen 400 to the project details screen 450, the screen returns to the gallery screen 400. If the project details screen 450 is transitioned from the discover screen 410, the screen returns to the discover screen 410. If you have transitioned from my page screen 600 or my page screen 640, which will be described later, return to those screens.
  • an on-sale icon 407, an end-of-sale icon 408, etc. as shown in FIG. 33 may be displayed as sales information regarding the project.
  • the information button 472 and the bookmark button 476 are displayed on the full display screen 470 in FIGS. 42 and 43, but the information button 472 and the bookmark button 476 are displayed for each image on the project details screen 450, Detailed information may be displayed or bookmark processing may be performed depending on the information.
  • the terminal device 22 performs operation monitoring from step S651 to step S655 in FIG. 44 while displaying the project creation screen 480.
  • a file upload section 481 On the project creation screen 480, a file upload section 481, a cloud file selection section 482, and a link input section 483 are provided as three routes for specifying content (images and links) to be incorporated into a new project.
  • the file upload section 481 is an area for selecting an image file from the local storage of the terminal device 22.
  • the user can drag an image file (still image/video) stored in the storage section of the terminal device 22 and drop it onto the file upload section 481. If a drop operation is detected, the terminal device 22 proceeds from step S651 to step S661, selects the dropped image file as project content, and performs a process of transitioning to a project editing screen 500, which will be described later.
  • a selection button 484 is provided in the file upload section 481. If the operation of the selection button 484 is detected, the terminal device 22 advances from step S652 to step S662, and displays an image file selection screen.
  • one or more image files can be selected. It is also possible to perform a cancel operation. If the user performs a cancel operation, the terminal device 22 returns from step S665 to step S650. If the user performs a selection operation of one or more image files, the terminal device 22 proceeds from step S663 to step S664, selects the selected one or more image files as project content, and performs the process described below. Processing for transitioning to the project editing screen 500 is performed.
  • the cloud file selection section 482 is an area for selecting image files stored in the storage 11.
  • a selection button 485 is provided in the cloud file selection section 482. If the operation of the selection button 485 is detected, the terminal device 22 proceeds from step S653 to step S670, communicates with the server system 1, and displays a selection screen for image files that the user has uploaded to the server system 1 in the past.
  • one or more image files can be selected. It is also possible to perform a cancel operation. If the user performs a cancel operation, the terminal device 22 returns from step S673 to step S650. If the user performs an operation to select one or more image files, the terminal device 22 proceeds from step S671 to step S672, selects the selected one or more image files as project content, and performs the process described below. Processing for transitioning to the project editing screen 500 is performed.
  • a link input section 483 is an area for inputting a link to an external video site, etc., and a URL (Uniform Resource Locator) input section 486 and an OK button 487 are displayed.
  • a link URL
  • the terminal device 22 proceeds from step S654 to step S675, selects the link as the project content, and displays the project editing screen 500 described below. Perform processing to transition to.
  • the terminal device 22 detects the operation of the return button 51 on the project creation screen 480, it returns to the process of the previous screen from step S655 in FIG. For example, if the screen transitions from the gallery screen 400 to the project creation screen 480, the screen returns to the gallery screen 400. If the screen transitions from the discover screen 410 to the project creation screen 480, the screen returns to the discover screen 410.
  • the terminal device 22 performs operation monitoring from step S681 to step S692 in FIG. 46 while displaying the project editing screen 500.
  • images of content (videos, still images, links) currently included in the project are displayed in a content confirmation area 501.
  • a forward button 502 a back button 503, a content list 504, add file buttons 505, 506, an add link button 507, a delete button 508, and an enlarged image 509 are displayed.
  • thumbnail images of the contents included in the project are displayed side by side, and one of them is displayed as an enlarged image 509.
  • the enlarged image 509 can be switched to the previous or next image in the content list 504 by using the forward button 502 and the backward button 503.
  • step S700 If an operation on this content confirmation area 501 is detected, the terminal device 22 proceeds from step S681 in FIG. 46 to step S700, performs processing according to the operation, and returns to step S680.
  • the processing in step S700 in this case is as follows.
  • a delete button 508 is displayed for each thumbnail image of the enlarged image 509 and the content list 504.
  • the terminal device 22 performs processing to exclude the content from the project.
  • the terminal device 22 When the forward button 502 or the backward button 503 is operated, the terminal device 22 performs a process of switching the enlarged image 509 back and forth. Further, in response to an operation of clicking a thumbnail image in the content list 504, the terminal device 22 displays the image of the content as an enlarged image 509.
  • the terminal device 22 In response to a drag operation of a thumbnail image in the content list 504, the terminal device 22 performs processing to change the order of content within the project.
  • the add file buttons 505 and 506 and the add link button 507 are operators for adding image files and links to the project using operations similar to those on the project creation screen 480 in FIG. 45.
  • the terminal device 22 In response to the operation of the file addition button 505, the terminal device 22 displays a selection screen for image files in the local storage, and in response to the user's selection operation, performs processing to add the selected image file or multiple image files to the project. conduct.
  • the terminal device 22 displays a selection screen for image files uploaded to the storage 11, and adds the selected image file or multiple image files to the project in accordance with the user's selection operation. Perform processing.
  • the terminal device 22 In response to the operation of the add link button 507, the terminal device 22 displays a link input screen and performs processing to add the link input by the user's operation to the project.
  • a title input section 510 is provided on the project editing screen 500, and text can be input. If text input to the title input section 510 is detected, the terminal device 22 proceeds from step S682 to step S701, and performs processing to save the input text as the title of the project. Then, the process returns to step S680.
  • the project editing screen 500 is provided with an explanatory text input section 511, which allows text input. If text input to the explanatory text input section 511 is detected, the terminal device 22 proceeds from step S683 to step S702, and performs processing to save the input text as a project explanatory text. Then, the process returns to step S680.
  • a cover image selection section 512 is provided on the project editing screen 500.
  • an upload button 513, a back button 514, a forward button 515, and a content list 516 are displayed.
  • the content list 516 displays images included in the project. The images displayed in this content list 516 can be sequentially advanced using the back button 514 and the forward button 515, and one can be selected.
  • the upload button 513 sets the selected image as the cover image.
  • step S703 When the terminal device 22 detects an operation on the cover image selection unit 512, the process proceeds from step S684 to step S703, performs processing regarding the cover image, and returns to step S680. That is, in step S703, the terminal device 22 performs processing such as sending images in response to the back button 514 and forward button 515, and setting a cover image in response to the operation of the upload button 513. Note that it may be possible to perform trimming or the like on the image to be used as the cover image.
  • an EXIF information selection section 520 is provided, and "display” or “not display” can be selected. If an operation of the EXIF information selection unit 520 is detected, the terminal device 22 proceeds from step S685 to step S704, sets the display of EXIF information, and returns to step S680.
  • a pinning setting section 521 is provided on the project editing screen 500, and it can be set whether or not to display (pin) the project at a predetermined position on the my page screen 600. If an operation of the pinning setting section 521 is detected, the terminal device 22 proceeds from step S686 to step S705, performs processing to turn on/off the pinning setting, and returns to step S680.
  • a device setting section 530 is provided, and the camera 21, lens barrel, etc. are displayed. If an operation on the device setting section 530 is detected, the terminal device 22 proceeds from step S687 to step S706, performs processing such as display/hide, addition, or deletion of devices according to the operation, and returns to step S680. The user can thereby set the equipment to be displayed in the equipment information section 460 of the project details screen 450.
  • a genre setting section 540 is provided on the project editing screen 500, and the user can check one or more genres. If an operation on the genre setting section 540 is detected, the terminal device 22 proceeds from step S688 to step S707, and sets the genre of the project in accordance with the operation. Then, the process returns to step S680. This allows the user to arbitrarily set the genre of the project.
  • a tag input section 541 is provided on the project editing screen 500, and the user can input one or more tags.
  • tags can be added as free text, and when you break a line with a comma or enter, the entered text becomes a tag.
  • a delete button is displayed for the tag so that it can be deleted.
  • step S689 If an operation on the tag input section 541 is detected, the terminal device 22 proceeds from step S689 to step S708, performs processing to set or delete a tag to be added to the project according to the operation, and returns to step S680.
  • the user can thereby set a character string to be displayed as the tag 456 on the project details screen 450.
  • the project editing screen 500 is provided with a delete button 542 and a post button 543. If the operation of the delete button 542 is detected, the terminal device 22 advances from step S690 to step S709, and performs processing to delete the project being edited. If a new project is being created, the project data will be discarded. If the project is being edited, the server system 1 is requested to delete the project. When a project is deleted in this manner, the terminal device 22 may return to the gallery screen 400, for example.
  • step S691 the terminal device 22 proceeds from step S691 to step S710, and performs a process of uploading the data of the project being edited to the server system 1. In other words, update the contents of the project. Then, the screen moves to a project details screen 450 for the project.
  • the process returns to the previous screen from step S692 in FIG. For example, the screen returns to the project details screen 450 or the project creation screen 480.
  • the user can perform various edits on his or her own project. It should be noted that various editing items other than those shown in the example are envisioned, such as being able to select the background color of the project.
  • the My Page processing includes processing on the My Page screen 600 when a signed-in user views his or her own page, and processing on the My Page screen 640 when the user views another creator's page.
  • the processing of the user's own my page screen 600 will be explained.
  • the terminal device 22 proceeds to step S720 in FIG. 48 from the gallery screen 400 in step S405 in FIG. 32, or in response to an operation of the user icon 54 on the discover screen 410, project details screen 450, or the like.
  • step S720 the terminal device 22 displays a my page screen 600 as shown in FIG. 49. Then, operation monitoring processing such as steps S721 to S730 is performed.
  • the information displayed on the my page screen 600 is obtained from the user information, image information, and device information stored in the storage 11.
  • the server device 10 provides a my page screen 600 to the terminal device 22 based on the information stored in the storage 11.
  • An image selected by the user as a header image 610 is displayed on the my page screen 600.
  • the my page screen 600 is provided with a gallery button 605, a discover button 606, and an article button 607.
  • the terminal device 22 changes to a gallery screen 400, a discover screen 410, and an article screen 430 in response to these operations.
  • the my page screen 600 is provided with a project tab 601, a bookmark tab 602, and an analysis tab 603.
  • the project tab 601 is selected, and in that case, this user's project is displayed in the main area 630 as shown in FIG.
  • the terminal device 22 proceeds from step S721 in FIG. 48 to step S740, and displays other people's projects and contents bookmarked by this user in the main area 630 as shown in FIG. be exposed.
  • step S722 in FIG. 48 the terminal device 22 proceeds from step S722 in FIG. 48 to step S741, and the analysis information regarding this user is displayed in the main area 630 as shown in FIG. 51.
  • the terminal device 22 proceeds from step S723 in FIG. 48 to step S742, and returns to displaying this user's project in the main area 630 as shown in FIG. .
  • a list of projects posted by the viewing user is displayed, for example, in chronological order of project posting date and time. However, pinned projects are displayed first.
  • projects and contents are displayed in the order of bookmarking date and time, for example. Projects and content may be displayed in different display formats or in different areas. You may also set a lead line from the content to the project or a lead line from the project to the content.
  • the number of posts, followers, accesses, number of views for each image, number of views of one's profile, etc. about the user are analyzed and displayed, for example, on a weekly basis. .
  • an avatar image 611 On the my page screen 600, an avatar image 611, a name 612, an occupation 613, an activity base 614, follow information 615, a self-introduction text 616, a link 617, a genre 618, and a device section 619 are displayed.
  • the user's profile is displayed as an avatar image 611, name 612, occupation 613, and activity base 614, and follow information 615 shows the number of followers of the user. Further, a self-introduction text 616 input by the user is displayed. As the link 617, a link to a blog, video, etc. on an external site of the user is displayed.
  • the activity base 614 also serves as a search button, and when an operation of the activity base 614 is detected, the terminal device 22 proceeds from step S724 to step S743, performs a search using the activity base as a key, and transitions to a search result screen.
  • the terminal device 22 sends information such as the country, region, and city name indicated by the activity base 614 to the server system 1, causes the server system 1 to execute a project search or creator search using that information, and displays the results. Receive. Then, display the search results.
  • step S725 If an operation on the link 617 is detected, the terminal device 22 proceeds from step S725 to step S744, and transitions to the linked website.
  • the genre 618 also serves as a search button, and when an operation of the genre 618 is detected, the terminal device 22 proceeds from step S726 to step S745, performs a search using the genre as a key, and transitions to a search result screen. For example, the terminal device 22 transmits genre information to the server system 1, causes the server system 1 to execute a project search or creator search using the information, and receives the results. Then, display the search results.
  • the device section 619 devices such as the camera 21 and lens barrel of the user registered in the portal service 30 are displayed.
  • the registered device information (see FIG. 7) can be set to public/private by the user, and only the information set to public is displayed in the device section 619.
  • the displayed device also serves as a search button, and when an operation on the device displayed in the device section 619 is detected, the terminal device 22 proceeds from step S727 to step S746, and performs a search using the device as a key. Transition to the result screen.
  • the terminal device 22 transmits a search request using device information as a key to the server system 1, causes the server system 1 to execute a project search or a creator search, and receives the results. Then, display the search results.
  • An edit button 620 is displayed on the my page screen 600. If the operation of the edit button 620 is detected, the terminal device 22 transitions from step S728 to profile editing processing. As profile editing processing, the terminal device 22 proceeds to step S760 in FIG. 52 and displays a profile editing screen 650 as shown in FIG. 53.
  • the profile editing screen 650 is provided with a profile item input section 651, a device setting section 652, and an update button 653.
  • the terminal device 22 proceeds from step S761 to step S765 in FIG. 52, stores the input contents, and returns to step S760.
  • the device setting section 652 displays the camera 21, lens barrel, etc. according to the device information registered in relation to the user, and it is possible to select whether or not to display these on the my page screen 600. That is, devices are displayed based on the device information shown in FIG. 7, and their settings can be changed. Note that registered devices may be added or deleted by operating the device setting section 652.
  • the terminal device 22 proceeds from step S762 to step S766, stores the settings based on the input contents, and returns to step S760.
  • Settings include display/non-display for each device.
  • the terminal device 22 proceeds from step S763 to step S767, and uploads the information input to the profile editing screen 650 at that time to the server system 1 as update information.
  • the server system 1 updates the information entered in the profile editing screen 650 as user information.
  • the profile contents on the my page screen 600 and the displayed device information are updated.
  • the terminal device 22 then returns to step S720 in FIG. 48. In this case, a new updated my page screen 600 is displayed.
  • the terminal device 22 returns from step S764 to step S720 in FIG. 48. In this case, no update is performed.
  • Projects and contents are displayed on the project tab 601 in FIG. 49 and the bookmark tab 602 in FIG. 50 on the my page screen 600, and information is displayed by hovering the mouse cursor over a project or the like.
  • the process proceeds from step S729 in FIG. 48 to step S747, performs processing to display information such as the project, and returns to step S720.
  • the terminal device 22 displays the title of the project, the number of likes, the number of comments, and the like.
  • the terminal device 22 transitions from step S730 to processing on the project details screen 450 (see FIG. 39).
  • the terminal device 22 may proceed from step S406 in FIG. 32, step S511 in FIG. 34, etc. to step S770 in FIG. 54, and display the my page screen 640.
  • operation monitoring processing such as steps S771 to S730 is performed while the my page screen 640 as shown in FIG. 55 is displayed. Note that the same steps as in FIG. 48 are given the same step numbers.
  • the other person's my page screen 640 in FIG. 55 differs from your own my page screen 600 in the following points.
  • the only tab is the project tab 601.
  • a follow button 621 and a report button 622 are provided on the other person's my page screen 640.
  • the edit button 620 shown in the my page screen 600 is not provided on the other person's my page screen 640.
  • step S771 If the operation of the follow button 621 is detected on the my page screen 640, the terminal device 22 proceeds from step S771 to step S775 in FIG. This allows the user to set a bookmark for the my page screen 640 of the creator they are interested in.
  • step S772 the terminal device 22 proceeds from step S772 to step S776 and performs notification processing.
  • the terminal device 22 changes to a reporting screen and enables reporting. Note that the creator of the reported my page screen 640 may be hidden from the user who reported it. If the notification has been made, the terminal device 22 may transition to step S400 in FIG. 32, for example.
  • the terminal device 22 may display sales information (on-sale icon 407, sold-out icon 408, etc.) regarding the project.
  • the information processing device 70 as the terminal device 22 of the embodiment retrieves predetermined information from a storage 11 that commonly manages predetermined information used in a plurality of services that each can view information via application software or a website. and a control unit (service support control unit 71a) that executes information presentation using predetermined information by each of a plurality of services.
  • the terminal device 22 used by the user performs a process of presenting screens of a plurality of services such as a portal service 30, a network service 31, a marketplace 32, and a content production tool 33 to the user.
  • Predetermined information used for presenting information in the plurality of services is obtained, for example, from the storage 11 managed by the server device 10.
  • the information processing device 70 as the server device 10 of the embodiment also includes a similar control unit (service compatible control unit 71a).
  • the server device 10 provides (sends) screens of a plurality of services to the user's terminal device 22 and causes the screen to be presented. Predetermined information used for presenting information in the plurality of services is acquired from the storage 11.
  • the information processing device 70 functioning as the terminal device 22 or the server device 10 of this embodiment can utilize predetermined information stored in the storage 11 in various functions among a plurality of services. Therefore, it is possible to promote efficiency in information management and information provision for various functions of various services.
  • the plurality of services are services each having a function related to the camera 21, and the predetermined information stored in the storage 11 includes device information of the camera 21 and related devices registered for each user.
  • the storage 11 stores information (device information) about the camera 21 and related devices such as lens barrels and other peripheral devices for each user (see FIG. 7). . This makes it possible to share device information for users who have signed in, and to present information regarding each user's camera 21 and the like in various services.
  • image information registered in association with a user is taken as an example of the predetermined information stored in the storage 11.
  • Image data of still images and moving images taken and uploaded by the user with the camera 21 is stored in the storage 11 (see FIG. 7).
  • Such image information is used across multiple services in connection with that user. For example, it is used for display on the network service 31, project creation, display on the home screen 200 of the portal service 30, sales content on the marketplace 32, etc.
  • the image data uploaded by the user in this manner can be effectively used across various services. Therefore, there is no need to sequentially upload image data for each service.
  • the project which is image information, is used not only by the network service 31 but also by the marketplace 32, the content production tool 33, and the like.
  • user information registered in association with an individual user is taken as an example of the predetermined information stored in the storage 11.
  • the user's information inputted by the user using, for example, the profile editing screen 650 is stored in the storage 11 as user information (see FIG. 7).
  • user information can be used in various functions in the portal service 30, network service 31, marketplace 32, etc., to present accurate information about users (viewers, project authors, sellers, etc.). .
  • the portal service 30 has a function of performing initial settings of the camera 21 connected for communication. Then, the terminal device 22 presents an initial setting screen on the portal service 30, and performs a process of transferring initial setting information to the camera 21 connected for communication in accordance with the input. For example, the camera setup screen 120, date/time/display setting screen 130, device name setting screen 140, etc. shown in FIGS. 13 and 14 are displayed as initial setting screens, and the initial settings of the camera 21 can be executed in response to input. (See Figure 11). This allows the user to initialize the camera 21 by operating the terminal device 22 instead of using the controls on the camera 21. This makes it easier for the user to perform initial settings for the camera 21. Note that the terminal device 22 may perform initial setting processing for peripheral devices of the camera 21.
  • the portal service 30 has a function of updating the program of the camera 21 that is communicatively connected.
  • the terminal device 22 is assumed to perform a process of determining whether an update is necessary, a process of downloading an update program, or a process of transferring an update program to an imaging device with which it is communicatively connected. For example, a notification is made using the update notification screen 300 in FIG. 26, the main body software is downloaded, and the main body software is transferred to the camera 21 in response to a transfer operation (see steps S260 to S266 in FIG. 18). This allows the user to learn about and update the camera 21 that he or she owns using the terminal device 22, improving convenience.
  • the terminal device 22 may be a device that only performs a process of determining whether or not the main body software of the camera 21 needs to be updated, or may be a device that only performs a process of downloading and transferring an update program. Further, the terminal device 22 may perform processing related to updating peripheral devices of the camera 21.
  • the portal service 30 of the embodiment has a diagnostic processing function for the camera 21 that is communicatively connected. processing, or receiving and presenting diagnostic results. As in the example of FIG. 19, for example, information about the camera 21 is transmitted from the terminal device 22 to the server device 10, and the server device 10 performs diagnostic processing. The terminal device 22 receives the diagnosis result from the server device 10 and presents it. This allows the user to check the diagnosis results for the camera 21 that he or she owns, and to take appropriate measures as necessary.
  • the portal service 30 provides extremely useful functions for the user using the camera 21.
  • the portal service 30 has a function of remotely controlling the shooting of the camera 21 connected through communication, and the terminal device 22 displays an operation image based on registered information about the camera 21 connected through communication. It was decided that the process would be carried out. For example, as the processing from step S230 to step S233 in FIG. 17, the terminal device 22 displays an image (remote operation screen 260) showing the operator according to the determination of the executable function according to the camera information of the camera 21.
  • a remote operation screen 260 that is suitable for the camera 21 that the user wants to operate, that is, the camera 21 that is currently connected for communication, and it is possible to improve the user's operability.
  • the portal service 30 of the embodiment has a function of presenting notifications related to a plurality of services, and the terminal device 22 performs a process of presenting notifications related to a plurality of services at once.
  • notifications related to a plurality of services are presented together on the notification screen 210 in FIG. 16.
  • these include notifications such as "likes" in the network service 31, notifications regarding sales in the marketplace 32, and the like. This allows the user to check notifications about multiple services at once, improving usability.
  • the portal service 30 has a function of managing the user's personal camera 21 and related devices, and the terminal device 22 performs a process of presenting a list of registered cameras 21 and related devices to the user.
  • the terminal device 22 in the processing from step S210 to step S212 in FIG. 17, a list of registered cameras 21 and the like is presented on the owned device list screen 240 in FIG. 21. This allows the user to check the registration status of the camera 21, etc. owned by the user.
  • by updating registered information by editing, adding, deleting, etc., it is possible to register equipment according to the user's wishes. This is particularly effective for registering and maintaining camera information as information that can be used between multiple services.
  • the portal service 30 has a function of managing the user's personal camera 21 and related devices
  • the terminal device 22 is an example in which the terminal device 22 performs a process of additionally registering information on the camera 21 or related devices connected for communication. listed.
  • the device information of the camera 21 being paired is added in the processing from step S250 to step S254 in FIG. This allows the user to easily register device information.
  • the network service 31 has a function of allowing a user to create a project including image content. Furthermore, an example has been given in which the terminal device 22 performs a process of causing a user to select image data included in image information stored in the storage 11 and a process of incorporating the selected image data into a project. For example, in the process of FIG. 44 (particularly steps S670 to S673), the terminal device 22 allows the user to select an uploaded image using the project creation screen 480 of FIG. Processing is being performed to include the content. As a result, the user can also use images uploaded using the functions of the portal service 30 to create a project in the network service 31, and can effectively utilize the uploaded images.
  • the terminal device 22 performs a process of associating information about the used camera 21 and related equipment with a project. For example, in step S706 of FIG. 46, the terminal device 22 associates the camera 21 and the lens barrel with the project in accordance with the user's input regarding the equipment used. As a result, the equipment used can be displayed when viewing a project, and the content of the project that the user can view can be enriched.
  • the terminal device 22 performs a process of displaying a list of projects for each user and a process of displaying details of individual projects.
  • the terminal device 22 displays a list of projects on a gallery screen 400 in FIG. 33, a discover screen 410 in FIG. 35, a my page screen 600 in FIG. 49, a my page screen 640 in FIG. 55, and the like. This allows viewers to easily check their own projects, other people's projects, recommended projects, etc.
  • the terminal device 22 displays details of each project on a project details screen 450 in FIG. 41. This allows users to check the details of the project they are interested in.
  • the terminal device 22 performs a process of adding and displaying sales information for each project.
  • the on-sale icon 407, the end-of-sale icon 408, etc. are used to clearly indicate whether the project is on sale in the marketplace 32, or when the sale has ended. This allows the user viewing the page to easily know the sales status. It is also useful for the user in deciding whether to browse the marketplace 32.
  • the terminal device 22 performs a process of displaying information about the camera 21 and related devices stored in the storage 11 in association with the user on the user's personal page.
  • a user's personal page is displayed as a my page screen 600 in FIG. 49, a my page screen 640 in FIG. 55, or the like.
  • These user personal pages display information about the camera 21 and lens barrel registered for that user. By viewing the user's personal page, it is possible to know the equipment used by the user. This allows you to provide other creators with information that can be used as a reference when creating projects.
  • the marketplace 32 of the embodiment is a service having a function of displaying a sales page for selling products, and an example is given in which the terminal device 22 performs processing to display a product selected according to predetermined information.
  • products application software and licenses
  • the terminal device 22 performs processing to display a product selected according to predetermined information.
  • products application software and licenses
  • the terminal device 22 displays on the store screen 340 in FIG. 28 in accordance with the device information of the browsing user (signed-in user).
  • projects to which the browsing user has attached bookmarks or the like may be displayed as products.
  • a selected project or the like may be displayed as a product according to information such as a genre in the user information of the user who is viewing the page.
  • a marketplace 32 can be created where products are displayed.
  • the server system 1 of the embodiment acquires predetermined information from the storage 11 and the storage 11 that commonly manages predetermined information used by a plurality of services, each of which can view information via application software or a website.
  • it includes a server device 10 that causes each of the plurality of services to execute information presentation using predetermined information. This realizes the information processing device 70 that functions as the server device 10 of this embodiment.
  • each process described as a process of the terminal device 22 in the embodiment can also be read as a process of the server device 10. That is, the server device 10 provides and displays screens for each service on the terminal device 22 using an application program or web browsing by the terminal device 22, and causes the terminal device 22 to execute a requested function via a user interface using the screen.
  • Figures 9, 10, 11, 17, 18, 19, 27, 29, 32, 34, 37, 39, 40, 44, 48, FIG. 52, and FIG. 54 can be understood as processing of the server device 10 that causes the terminal device 22 to perform display and predetermined function processing.
  • the program of the embodiment is a program that causes the terminal device 22 and the server device 10 to execute processing.
  • FIGS. 9, 10, 11, 17, 18, 19, 27, 29, 32, 34, 37, 39, 40, 44, 46, 48, 52 is a program that causes an information processing apparatus such as a CPU or a DSP, or a device including these, to execute the process shown in FIG.
  • the program of the embodiment includes a process of acquiring predetermined information from a specific storage that commonly manages predetermined information used by a plurality of services that each can view information via application software or a website; This is a program that causes an information processing device to execute a control process that causes an information processing device to execute information presentation using predetermined information by each of the services.
  • Such a program allows multiple services such as the portal service 30 and the network service 31 to perform functions including screen display and cooperation with the camera 21, and to effectively utilize information by sharing the storage 11, for example, on a mobile terminal device. It can be realized in computers, personal computers, and other devices that can perform information processing.
  • Such a program can be recorded in advance in an HDD as a recording medium built into equipment such as a computer device, or in a ROM in a microcomputer having a CPU.
  • a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a Blu-ray Disc (registered trademark), a magnetic disk, a semiconductor memory It can be stored (recorded) temporarily or permanently in a removable recording medium such as a memory card.
  • a removable recording medium can be provided as so-called package software.
  • it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • Such a program is suitable for widely providing the terminal device 22 and server device 10 of the embodiment.
  • a program for example, by downloading a program to a mobile terminal device such as a smartphone or tablet, an imaging device, a mobile phone, a personal computer, a still camera, a video camera, a game device, a video device, a PDA (Personal Digital Assistant), etc., the smartphone, etc. , can function as the terminal device 22 or server device 10 of the present disclosure.
  • the present technology can also adopt the following configuration.
  • the predetermined information is acquired from a specific storage that commonly manages predetermined information used by a plurality of services, each of which can view information via application software or a website, and the predetermined information by each of the plurality of services is acquired.
  • An information processing device that includes a control unit that executes information presentation using information about the information.
  • Each of the plurality of services has functions related to an imaging device, and The information processing device according to (1) above, wherein the predetermined information is information on an imaging device or related equipment registered for each user.
  • One of the plurality of services is a service that has a function of updating a program of an imaging device that is communicatively connected; Regarding the service, the control unit performs any of the following: determining whether an update is necessary, downloading an update program, or transferring an update program to a communication-connected imaging device.
  • One of the plurality of services is a service having a diagnostic processing function for a communication-connected imaging device, Regarding the service, the control unit performs any of the following: transmitting information on the imaging device to be diagnosed, diagnosing based on information on the imaging device, or receiving and presenting diagnostic results.
  • the information processing device according to any one of the above.
  • a service having a function of remotely controlling the shooting of a communication-connected imaging device there is a service having a function of remotely controlling the shooting of a communication-connected imaging device, The information processing device according to any one of (1) to (7) above, wherein, regarding the service, the control unit performs display processing of an operation image based on registered information about the communicably connected imaging device.
  • One of the plurality of services is a service having a function of presenting notifications related to the plurality of services, The information processing device according to any one of (1) to (8) above, wherein the control unit performs a process of collectively presenting notifications related to the plurality of services regarding the service.
  • the predetermined information is information on an imaging device or related equipment registered for each user, One of the plurality of services is a service that has a function of managing a user's personal imaging device or related equipment, The information processing device according to any one of (1) to (9) above, wherein the control unit performs a process of presenting a list of registered imaging devices or related devices to an individual user regarding the service.
  • the predetermined information is information on an imaging device or related equipment registered for each user, One of the plurality of services is a service that has a function of managing a user's personal imaging device or related equipment, The information processing device according to any one of (1) to (10) above, wherein the control unit performs a process of additionally registering information on an imaging device or related device connected for communication regarding the service.
  • the predetermined information is image information registered in association with the user
  • One of the plurality of services is a service that has a function of allowing a user to create a project including image content
  • the control unit performs a process of causing a user to select image data included in image information stored in the specific storage, and a process of incorporating the selected image data into a project (1) above.
  • the information processing device according to any one of (11) to (11).
  • One of the plurality of services is a service that has a function of allowing a user to create a project including image content, The information processing device according to any one of (1) to (12) above, wherein the control unit performs a process of associating information about the used imaging device and related equipment with the project regarding the service.
  • One of the plurality of services is a service that has a function of allowing a user to create a project including image content,
  • the information processing device according to any one of (1) to (13), wherein the control unit performs a process of displaying a list of projects for each user and a process of displaying details of each project regarding the service.
  • the control unit performs a process of adding and displaying sales information for each project.
  • the predetermined information is information on an imaging device or related equipment registered for each user, As one of the plurality of services, there is a service that has a function of displaying a user's personal page, Regarding the service, the control unit performs a process of displaying information on the imaging device or related equipment associated with the user and stored in the specific storage on the user's personal page.
  • the predetermined information is information on an imaging device or related equipment registered for each user, image information registered in association with a user, or user information registered in association with an individual user, As one of the plurality of services, there is a service that has a function of displaying a sales page for selling products,
  • the information processing device according to any one of (1) to (16), wherein the control unit performs a process of displaying a product selected according to the predetermined information regarding the service.
  • a specific storage that commonly manages predetermined information used by multiple services, each of which can view information via application software or a website;
  • An information processing apparatus comprising: a control unit that acquires the predetermined information from the specific storage and causes each of the plurality of services to execute information presentation using the predetermined information.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

情報処理装置は、それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージから、所定の情報を取得するとともに、複数のサービスのそれぞれによる所定の情報を用いた情報提示を実行させる制御部を備えるようにする。

Description

情報処理装置、情報処理方法、プログラム
 本技術は情報処理装置、情報処理方法、プログラムに関し、例えば各種情報を提供するサービスなどに適用できる技術に関する。
 昨今、PC(パーソナルコンピュータ)や、スマートフォン、タブレット機器などの端末装置を用い、アプリケーションソフトウェア或いはウェブサイトへのアクセスの形態による各種の情報提供サービスが実現されている。
 下記特許文献1では、イベントにおいて撮影した画像データによる画像集を制作するためのサービスについて記載されている。
WO2022/070825号公報
 ユーザはスマートフォンやPCを用いて多様なサービスを利用できる環境にあるが、複数のサービスを用いることを考えた場合に、閲覧するユーザにとっての、より有効な情報の提供や、操作効率のよい使用性が求められる。
 そこで本開示では、ユーザによる複数のサービスの利用を想定した場合に提供する情報の的確性や閲覧時の使用性を向上させる技術を提案する。
 本技術に係る情報処理装置は、それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージから、前記所定の情報を取得するとともに、前記複数のサービスのそれぞれによる前記所定の情報を用いた情報提示を実行させる制御部を備える。
 例えばユーザが使用する端末装置としての情報処理装置では、複数のサービスの画面をユーザに提示する処理が行われる。この複数のサービスでの情報提示に用いる所定の情報は、例えばサーバが管理する特定ストレージから取得する。
 また例えばサービスのサーバとしての情報処理装置は、複数のサービスの画面をユーザ側の端末装置に提供(送信)して提示させる。この複数のサービスでの情報提示に用いる所定の情報は、例えばサーバが管理する特定ストレージから取得する。
本技術の実施の形態のシステム構成の説明図である。 実施の形態の複数のサービスの例の説明図である。 実施の形態のポータルサービスの説明図である。 実施の形態のサービスにおけるカメラ登録機能の説明図である。 実施の形態のサービスにおけるカメラ自己診断機能の説明図である。 実施の形態のサービスにおけるカメラのアップデート機能の説明図である。 実施の形態のストレージの記憶内容の説明図である。 実施の形態のサーバ装置又は端末装置のハードウェア構成のブロック図である。 実施の形態のポータルサービスの起動時の処理のフローチャートである。 実施の形態のポータルサービスのホーム画面からの処理のフローチャートである。 実施の形態のポータルサービスのカメラ初期設定の処理のフローチャートである。 実施の形態の無線通信接続に関する画面の説明図である。 実施の形態のカメラ初期設定に関する画面の説明図である。 実施の形態のカメラ初期設定に関する画面の説明図である。 実施の形態のポータルサービスのホーム画面の説明図である。 実施の形態のお知らせ画面の説明図である。 実施の形態のデバイス画面の処理のフローチャートである。 実施の形態のデバイス画面の処理のフローチャートである。 実施の形態のデバイス画面の処理のフローチャートである。 実施の形態のデバイス画面の説明図である。 実施の形態の所有機器リスト画面の説明図である。 実施の形態のビュー/インポート画面の説明図である。 実施の形態のリモート操作画面の説明図である。 実施の形態のセットアップ画面及び転送通知設定画面の説明図である。 実施の形態の位置情報連動設定画面の説明図である。 実施の形態のアップデート通知画面の説明図である。 実施の形態のストア画面の処理のフローチャートである。 実施の形態のストア画面の説明図である。 実施の形態のストレージ画面の処理のフローチャートである。 実施の形態のストレージ画面の説明図である。 実施の形態の画像選択画面の説明図である。 実施の形態のネットワークサービスの処理のフローチャートである。 実施の形態のギャラリー画面の説明図である。 実施の形態のディスカバー画面の処理のフローチャートである。 実施の形態のディスカバー画面の説明図である。 実施の形態のディスカバー画面の検索文字入力の説明図である。 実施の形態のアーティクル画面の処理のフローチャートである。 実施の形態のアーティクル画面の説明図である。 実施の形態のプロジェクト詳細画面の処理のフローチャートである。 実施の形態のプロジェクト詳細画面の処理のフローチャートである。 実施の形態のプロジェクト詳細画面の説明図である。 実施の形態のフル表示画面の説明図である。 実施の形態のフル表示画面の説明図である。 実施の形態のプロジェクト作成の処理のフローチャートである。 実施の形態のプロジェクト作成画面の説明図である。 実施の形態のプロジェクト編集画面の処理のフローチャートである。 実施の形態のプロジェクト編集画面の説明図である。 実施の形態のマイページの処理のフローチャートである。 実施の形態のマイページ画面の説明図である。 実施の形態のマイページ画面の説明図である。 実施の形態のマイページ画面の説明図である。 実施の形態のプロフィール編集の処理のフローチャートである。 実施の形態のプロフィール編集画面の説明図である。 実施の形態のマイページの処理のフローチャートである。 実施の形態のマイページ画面の説明図である。
 以下、実施の形態を次の順序で説明する。
<1.システム構成及びサービス>
<2.情報処理装置の構成>
<3.処理例及び画面例>
 [3-1:サインインまでの処理]
 [3-2:ポータルサービスのホーム画面の処理]
 [3-3:デバイス画面の処理]
 [3-4:ストア画面の処理]
 [3-5:ストレージ画面の処理]
 [3-6:ネットワークサービスのトップ画面の処理]
 [3-7:ディスカバー画面の処理]
 [3-8:アーティクル画面の処理]
 [3-9:プロジェクト詳細画面の処理]
 [3-10:プロジェクト作成画面の処理]
 [3-11:プロジェクト編集画面の処理]
 [3-12:マイページの処理]
<4.まとめ及び変形例>
 なお実施の形態で説明するサービスは撮像装置や撮影した画像に関連する情報を提供するサービスを例に挙げる。撮像装置については「カメラ」とも表記する。
 また本開示において「画像」とは静止画、動画のいずれをも含み、「画像データ」とは静止画データ、動画データのいずれをも含む。
 なお当業者が通常に理解できる範囲において、「画像」とは、ディスプレイに表示されている画像を指すだけでなく、ディスプレイに表示されていない状態の画像データも含めて包括的に示す場合がある。
<1.システム構成及びサービス>
 図1に実施の形態のシステム構成例を示す。図1ではサーバシステム1とユーザ機器2を示している。
 サーバシステム1はサーバ装置10とストレージ11を有する。このサーバシステム1は、公衆ネットワークを介していわゆるクラウドサーバとして機能する。但し、必ずしもクラウドサーバ形態でなくてもよく、組織、団体、家庭内などのローカルネットワークにおけるサーバであってもよい。
 サーバ装置10は1又は複数の情報処理装置によって構成され、ユーザ機器2に対する情報送信や、ユーザ機器2からの情報のアップロードを受け付ける処理などを行う。特にサーバ装置10は後述する各種のサービスの機能をユーザ側に提供するための処理を行う。
 ストレージ11は、各種サービスのクラウドサーバとして機能するための必要な情報を記憶する、いわゆるクラウドストレージである。ストレージ11は1又は複数の記憶デバイスにより構成される。なおストレージ11はクラウドストレージに限られず、サーバ装置10がアクセス可能な記憶デバイスであればどのような形態でもよい。
 本実施の形態の場合、ストレージ11は後述する複数のサービスに対応する共通ストレージとされ、複数のサービスで用いられる情報を記憶する。詳細は後述する。
 図1のユーザ機器2としては、ある一人のユーザが所有(又は使用)する機器の例を挙げており、カメラ21、スマートフォンやPCやタブレット機器等の端末装置22を示している。
 例えばスマートフォン等の端末装置22を所有するユーザと、そのユーザが所有する1又は複数のカメラ21が想定される。カメラ21は例えばデジタルスチルカメラ、デジタルビデオカメラ等としての撮像装置である。またカメラ21は、業務用カメラ、コンパクトカメラ、一眼レフカメラ、ミラーレスカメラ、監視カメラ、固定設置カメラ等の形態を問わない。
 端末装置22は、例えばインターネット、ホームネットワーク、LAN(Local Area Network)、移動体通信網、その他の各種のネットワークを介して、サーバ装置10と通信可能とされる。
 これによりユーザは端末装置22を用いてサーバシステム1が提供するサービスを受けることができる。
 本開示でいうサービスとは、ユーザが端末装置22においてアプリケーションソフトウェアやウェブブラウジングにより各種情報を提示する情報提示サービス、及び提示する情報に付随して実現される各種の機能を包括的に指している。
 そして本実施の形態では、サーバシステム1が提供する複数のサービスが連携すること、及び各サービスは、ユーザが所有する(或いは使用する)カメラ21に関連した機能を有するものとした例で説明する。
 カメラ21を使用するユーザは、カメラ21と端末装置22の間の通信により、カメラ21から画像や各種情報を端末装置22に転送させることができる。また端末装置22からカメラ21に対して各種情報を転送させることもできる。
 またユーザは、端末装置22により、サーバシステム1への画像や各種の情報のアップロードを行わせることができる。
 なおカメラ21が直接サーバシステム1への画像や各種の情報のアップロードを行うことができるようにしてもよい。
 またユーザは端末装置22におけるアプリケーションソフトウェアの起動やウェブブラウザの起動により、サーバ装置10が提供するサービスページの画面を閲覧することや、サービスで用意された各種機能の処理を実行させることができる。
 カメラ21と端末装置22の間は、何らかの通信方式で画像やメタデータ、或いはプログラム等の通信ができるものであればよい。例えばブルートゥース(Bluetooth:登録商標)、Wi-Fi(Wireless Fidelity:登録商標)、NFC(Near Field Communication:登録商標)等の近距離無線通信や、赤外線通信などにより、相互に情報通信が可能とされることとしてもよい。
 さらにカメラ21と端末装置22が有線LAN等の有線接続通信によって相互に通信可能とされてもよい。
 図1ではある一人のユーザのユーザ機器2として、カメラ21、端末装置22を示したが、例えばカメラ21と端末装置22を有する多数のユーザが、サーバシステム1が提供するサービスによる情報閲覧や処理機能を享受できる。
 図2には、サーバシステム1によって提供される複数のサービスとして、ポータルサービス30、ネットワークサービス31、マーケットプレイス32、コンテンツ制作ツール33を模式的に示している。
 4つのサービスを例示したが、これらは独立したサービスであり、ユーザはそれぞれにサインインして利用することが可能とされる。但しユーザが例えばポータルサービス30にサインインをした状態で、ポータルサービス30からネットワークサービス31、マーケットプレイス32、コンテンツ制作ツール33に任意に遷移させることができる。その遷移の際に再度のサインインは不要とされることが望ましい。同様に、例えばユーザがネットワークサービス31にサインインをした状態で、ポータルサービス30、マーケットプレイス32、コンテンツ制作ツール33に任意に遷移させることができる。つまりいずれかのサービスにサインインすれば、他のサービスにもサインインした状態とすることができる。
 そしてこれらの各サービスは、サインインするユーザが使用するカメラ21に連携する機能を有するサービスである。
 ポータルサービス30は、例えばカメラ21で撮影した画像データのアップロード及びクラウドストレージを行う機能や、カメラ21に関する設定などを容易化する機能を備える。
 図3は、サービスの起点の1つとなるポータルサービス30の利用例を模式的に示している。
 例えばクラウドサーバとしてのサーバシステム1が提供するポータルサービス30は、端末装置22にインストールしたアプリケーションソフトウェアであるポータルアプリケーション30Aにより実現される。また例えば端末装置22におけるブラウザによるウェブブラウジングによるポータルサイト30Bとしても実現される。
 例えば端末装置22は、端末装置22とカメラ21との通信接続を確立した状態で、ポータルアプリケーション30Aにより、カメラ連携機能を実行できる。
 また例えば端末装置22は、カメラ21と通信接続していない状態でも、ポータルサイト30Bによる各種情報の閲覧やアカウント管理、お知らせの提示なども実行できる。
 以上は利用形態の一例であるが、ポータルサービス30は、ポータルアプリケーション30Aによる実現形態のみとしてもよいし、ポータルサイト30Bによる実現形態のみとしてもよい。
 またポータルアプリケーション30Aとポータルサイト30Bは、実行する処理機能に応じて相互に遷移するものとしてもよい。
 図2には、ポータルサービス30が備えるカメラ21に関連する機能を例示している。機器登録機能30a、リモート撮影機能30b、カメラ自己診断機能30c、カメラ初期設定機能30d、カメラアップデート機能30e、画像転送機能30fである。
 機器登録機能30aは、ユーザが使用するカメラ21をクラウド側で登録する処理を行う機能である。
 例えば図4に示すように、ユーザがポータルサービス30にサインインして使用している端末装置22は、通信接続中のカメラ21の機器情報をサーバシステム1に送信し、当該ユーザ個人の使用するカメラ21の情報としてストレージ11に記憶させることができる。このような登録処理は端末装置22からのサインイン及びカメラ21との通信接続に応じて自動的に実行してもよいし、ユーザの操作に応じて行ってもよい。
 或いは端末装置22からのサインイン中に、カメラ21がサーバシステム1と直接通信を行って機器情報を送信し、ストレージ11に記憶させるようにしてもよい。
 登録のために送信する機器情報とは、例えばカメラ21の個体毎の機種名、型番、シリアル番号、名称(個体のデフォルト名やユーザが設定した名称)、カメラ21の本体ソフトウェアのバージョン、機器のサムネイルなどの情報を含む。
 また機器情報とはカメラ21に限らず、例えば交換レンズとしてのレンズ鏡筒や、その他のカメラ周辺機器(いわゆるアクセサリ機器)についての機種名、型番、製造年、製造者、名称等でもよい。
 ユーザは、ポータルサービス30により、自分が所有したり使用したりする1又は複数のカメラ21やレンズ鏡筒などの機器を、ユーザ自身の識別情報に紐づけて登録することができる。
 図2に示したリモート撮影機能30bは、ユーザがポータルサービス30にサインインして使用している端末装置22において、カメラ21の操作画像を表示させ、操作に応じて操作情報をカメラ21に送信する機能である。これによりユーザは端末装置22を用いてカメラ21を遠隔操作することができる。
 この場合に、カメラ21の操作画像の内容は、通信接続中で操作対象とされているカメラ21の機種や動作機能に応じたものとすることができる。
 カメラ自己診断機能30cは、カメラ21の状態、不具合等を診断する機能である。
 図5に示すように、端末装置22は例えば通信接続中のカメラ21について機器ログをサーバシステム1に送信する。機器ログとはカメラ21側のマイクロプロセッサによって逐次の動作に応じてカメラ内部のメモリに記録されたログ情報である。端末装置22は、カメラ21の側から機器ログを受け取り、それをサーバシステム1に転送する。
 これに応じてサーバシステム1のサーバ装置10では、自己診断ロジック30c1としてのプログラムによる診断機能が発動され、診断処理を実行する。例えば機器ログのエラー実績等に基づいて、診断結果の情報や、必要な対処方法の情報、或いは修理推奨の情報などを生成する。またサーバ装置10では、診断対象のカメラ21によって撮影され、アップロードされてストレージ11に記憶されていた画像データ(動画/静止画)を用いて診断を行い、診断結果の情報や、必要な対処方法の情報、或いは修理推奨の情報などを生成することもできる。そしてサーバ装置10は診断結果などの情報を端末装置22に送信する。
 端末装置22では、診断結果を表示する。例えばエラーは検出されなかった旨の表示や、問題があった場合は、必要な対処方法や修理推奨の情報を表示する。
 この場合に、サーバ装置10が用意するチャットボット機能30c2やヘルプ機能30c3と連携することもできる。
 例えば診断結果に応じて適切なヘルプ情報を端末装置22に提供する。特にカメラ21に関して機器情報が登録されているため、サーバ装置10は、その診断したカメラ21の機種や機能に応じたFAQ(Frequently Asked Questions)、サポート情報などを選択して端末装置22に提供できる。またサーバ装置10は、自己診断ロジック30c1による診断結果に関連するヘルプ情報を選択して端末装置22に提供できる。
 また端末装置22において診断結果とともにチャットボット機能30c2への導線を表示させ、ユーザがチャットによるガイドを必要とした場合に、診断結果を参照して適切なサポート情報を提供することもできる。
 図2に示したカメラ初期設定機能30dは、カメラ21の初期設定操作を、端末装置22を用いて行う機能である。一般にカメラ21では撮影のための操作を優先する設計であるため、スマートフォン等の端末装置22よりも設定操作のための操作性が低い。例えばカメラ21では、十字キー、カーソルキーなどでメニュー操作や選択操作を行うことになり、操作が面倒となる傾向がある。ポータルサービス30においてカメラ初期設定機能30dを提供することで、ユーザはカメラ21と端末装置22を通信接続させた状態で、カメラ21の初期設定操作を、端末装置22からの操作で可能とする。これによりユーザの初期設定操作を簡易化できる。
 カメラアップデート機能30eは、カメラ21の本体ソフトウェアのアップデートを、端末装置22を介して実行できるようにする機能である。
 例えば図6に示す様に、端末装置22は通信接続中のカメラ21から本体ソフトウェア情報(本体ソフトウェアの名称、バージョン等)を取得する。そしてポータルサービス30の利用時には、端末装置22はサーバシステム1に対して本体ソフトウェア情報を送信し、最新の本体ソフトウェアの確認を要求する。アップデートすべき最新の本体ソフトウェアが存在する場合は、サーバシステム1は端末装置22に対して最新の本体ソフトウェアの存在を通知する。端末装置22はユーザに対してその旨を提示し、ユーザがアップデートの操作を行うことに応じて、本体ソフトウェアのダウンロードを行い、それをカメラ21へ転送してアップデートを完了させる。
 図2に示した画像転送機能30fは、各種の画像をカメラ21、端末装置22、サーバシステム1の間で転送する機能である。例えばカメラ21で撮影した画像や、ユーザがネットワークサービス31内で制作したプロジェクト等をサーバシステム1に転送する。サーバシステム1では、ストレージ11において、ユーザに紐づけて画像(コンテンツ)や、画像を含むプロジェクト等を記憶することができる。
 なおプロジェクトについての詳細は後述するが、本開示では、1又は複数の画像(静止画や動画)や動画サイトへのリンクなどを含んで構成された画像作品である。例えばテーマに沿ってユーザが選択した画像やリンク(コンテンツ)を並べた画像集のような例が想定される。
 図2に示すネットワークサービス31、マーケットプレイス32、コンテンツ制作ツール33は、以上の機能を有するポータルサービス30と連携可能とされる。
 ネットワークサービス31は、いわゆるSNS(Social networking service)の例としており、ユーザが個人ページを作成して情報を発信できるようにするサービスである。本実施の形態の場合は、ネットワークサービス31は特にカメラ21に関連するSNSとしての側面を有し、カメラマン/クリエイターが静止画や動画としての作品の公開や、他人の作品を閲覧することができるサービスである。従ってネットワークサービス31はカメラマン/クリエイターの情報発信ツール及び情報閲覧ツールと位置づけされる。
 マーケットプレイス32は、商品売買のためのサービスである。実施の形態ではカメラ21で撮影した画像コンテンツや制作したプロジェクトの売買を行う場を提供するサービスとする。或いはカメラ21や端末装置22に適用して、撮影機能、画像処理機能等を実現するアプリケーションソフトウェアや、ライセンスを商品とすることもできる。特にカメラ21を使用するユーザに適した商品を展開するサービスである。
 コンテンツ制作ツール33は、ストレージ11に記憶された画像素材などに対して自動処理を行うサービスである。
 例えば動画のシーンカットや音量調整、動画や静止画の色調整、画サイズ調整、その他各種の処理を、AI(artificial intelligence)処理等により実行させ、ユーザのコンテンツ/プロジェクト制作を補助するサービスである。
 これらネットワークサービス31、マーケットプレイス32、コンテンツ制作ツール33は、例えばポータルサービス30を中心として連携し、情報を共有しながら情報提供や各種機能の処理を行う。
 例えばポータルサービス30が備える機器登録機能30a、リモート撮影機能30b、カメラ自己診断機能30c、カメラ初期設定機能30d、カメラアップデート機能30e、画像転送機能30fは、ネットワークサービス31、マーケットプレイス32、コンテンツ制作ツール33から適宜発動させることができるようにする。
 また各サービスの実行過程でストレージ11に蓄積された情報は、それぞれのサービスで共有して使用できるようにする。
 例えば図7にストレージ11に記憶される情報内容の例を示している。個々のユーザの識別情報U1,U2,U3・・・として示す一人のユーザ毎に、機器情報、画像情報、ユーザ情報、メッセージ等が記憶される。
 機器情報とは、上述のように機器登録機能30aによって登録された、ユーザが使用するカメラ21やレンズ鏡筒などに関する情報である。
 このような機器情報は、ポータルサービス30での各機能において参照されたり、ネットワークサービス31において提示のために参照されたり、マーケットプレイス32で提示する商品選択のために参照されたりする。
 画像情報は、ユーザが撮影した静止画や動画としての個々の画像であるコンテンツや、画像(コンテンツ)を含んで制作されたプロジェクトの情報、さらにはこれらコンテンツやプロジェクトに関連する情報を含む。コンテンツやプロジェクトに関連する情報とは、コンテンツに関連づけられたメタデータ、プロジェクトの詳細情報(図47で後述)、コンテンツやプロジェクトのマーケットプレイス32での販売中や販売終了等の販売情報、コンテンツ制作ツール33による処理情報等が想定される。
 これらの画像情報は、ネットワークサービス31における提示画像、マーケットプレイス32での商品、或いはコンテンツ制作ツール33での処理対象などとして使用される。
 ユーザ情報は、サインイン情報(アカウント、パスワード等を含む)、ユーザの各サービスに対する利用の履歴情報、ユーザの属性、活動拠点、その他の各種のユーザに関する情報である。
 ユーザ情報は、各サービスのサインイン、ウェルカム画面の表示、ネットワークサービス31におけるマイページの提示などに用いられる。
 メッセージとは、そのユーザに対して発信された各種の通知情報である。例えばポータルサービス30により発生した通知、ネットワークサービス31において制作したプロジェクトに対する「いいね」等の通知、他者によるフォローの通知、マーケットプレイス32での販売や購入に関する通知、コンテンツ制作ツール33による画像処理に関する通知などが、ユーザに紐づけられて記憶される。
 なお図7では説明上の例として、1つのストレージにおけるユーザの識別情報に応じて機器情報、画像情報、ユーザ情報、メッセージ等が記憶されるものとしたが、機器情報、画像情報、ユーザ情報、メッセージは別体のストレージに分散して記憶されてもよい。但しいずれにしても識別情報U1,U2・・・に関連づけられることで、サーバシステム1では、ユーザ個人毎に機器情報、画像情報、ユーザ情報、メッセージが記憶される構造を採っている。
<2.情報処理装置の構成>
 図1のサーバ装置10や端末装置22として構成できる情報処理装置70の構成例を図8に示す。サーバ装置10や端末装置22は以下の情報処理装置70の構成を備えることで後述する処理を実行できる。またカメラ21も以下の情報処理装置70の構成を備えることで端末装置22と同様の処理を実行できる。
 図8の情報処理装置70は、具体的には、パーソナルコンピュータ、ワークステーション、スマートフォンやタブレット等の携帯端末装置、クラウドコンピューティングにおけるサーバ装置や演算装置として構成されるコンピュータ装置とされる。
 情報処理装置70のCPU(Central Processing Unit)71は、ROM(Read Only Memory)72や例えばEEP-ROM(Electrically Erasable Programmable Read-Only Memory)などの不揮発性メモリ部74に記憶されているプログラム、または記憶部79からRAM(Random Access Memory)73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
 CPU71にはサービス対応制御部71aとしての機能を示している。このサービス対応制御部71aは、CPU71が例えばアプリケーションプログラムやブラウザ機能によってポータルサービス30、ネットワークサービス31、マーケットプレイス32、コンテンツ制作ツール33にアクセスした場合に、それらのサービスによって提供される処理機能を実行する制御部という意味で示している。
 なおCPU71に代えて、あるいはCPU71とともに、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、AI(artificial intelligence)プロセッサ等が設けられてもよい。
 CPU71、ROM72、RAM73、不揮発性メモリ部74はバス83を介して相互に接続されている。このバス83にはまた、入出力インタフェース75も接続されている。
 入出力インタフェース75には、操作子や操作デバイスよりなる入力部76が接続される。例えば入力部76としては、キーボード、マウス、キー、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
 入力部76によりユーザの操作が検知され、入力された操作に応じた信号はCPU71によって解釈される。
 入力部76としてはマイクロフォンも想定される。ユーザの発する音声を操作情報として入力することもできる。
 また入出力インタフェース75には、LCD(Liquid Crystal Display)或いは有機EL(electro-luminescence)パネルなどよりなる表示部77や、スピーカなどよりなる音声出力部78が一体又は別体として接続される。
 表示部77は各種表示を行う表示部であり、例えば情報処理装置70の筐体に設けられるディスプレイデバイスや、情報処理装置70に接続される別体のディスプレイデバイス等により構成される。端末装置22がスマートフォンやタブレット機器であれば、表示部77は、その筐体上に設けられる。端末装置22がPCの場合、表示部77は、その本体筐体に設けられたり、別体のモニタデバイス等の形態で実現されたりする。
 表示部77は、CPU71の指示に基づいて表示画面上に各種の画像、操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
 入出力インタフェース75には、HDD(Hard Disk Drive)や固体メモリなどにより構成される記憶部79や通信部80が接続される場合もある。
 記憶部79は、各種のデータやプログラムを記憶することができる。記憶部79においてデータベースを構成することもできる。
 例えば情報処理装置70がサーバシステム1を構成する装置の場合、記憶部79を利用してストレージ11を構築できる。
 通信部80は、インターネット等の伝送路を介しての通信処理や、近距離無線通信、周辺機器との有線通信、バス通信などによる通信を行う。
 入出力インタフェース75にはまた、必要に応じてドライブ81が接続され、磁気ディスク、光ディスク、光磁気ディスク、メモリカード、USBメモリなどのリムーバブル記録媒体82が適宜装着される。
 ドライブ81により、リムーバブル記録媒体82からは画像データや、各種のコンピュータプログラムなどを読み出すことができる。読み出されたデータは記憶部79に記憶されたり、データに含まれる画像や音声が表示部77や音声出力部78で出力されたりする。またリムーバブル記録媒体82から読み出されたコンピュータプログラム等は必要に応じて記憶部79にインストールされる。
 この情報処理装置70では、例えば本実施の形態の処理のためのプログラムを、通信部80によるネットワーク通信やリムーバブル記録媒体82を介してインストールすることができる。或いは当該プログラムは予めROM72や記憶部79等に記憶されていてもよい。
<3.処理例及び画面例>
 以下、主にポータルサービス30とネットワークサービス31の機能に伴う具体的な処理例及び画面例を説明していく。
 なお、以下の処理及び画面遷移は、上述の4つのサービスで実現される全ての処理及び画面遷移を示すものではなく、あくまで説明のために挙げた一部の処理である。
 また端末装置22において表示される画面例としては、図8の表示部77に表示される画面例であり、具体的にはスマートフォンの筐体上の表示部77や、PCにおける一体又は別体の表示部77において表示される画面例である。
 また以下説明する処理例は、端末装置22がその表示部77に情報提示を実行させる処理として説明するが、各処理例はサーバ装置10の処理例、即ちサーバ装置10が端末装置22における情報提示を実行させる処理例として理解することもできる。
 また上述の4つのサービスは、ユーザからの見かけ上で独立したサービス、例えば別個のアプリケーションプログラムや別個のウェブページとして実行されるものでもよいが、見かけ上、独立していなくてもよい。
 本開示でいう複数のサービスにおける1つ1つのサービスとは、例えば
・実行可能な機能別に区別されたサービス
・課金体系として独立して提供されるサービス
・サインイン(ログイン)が独立して実行可能なサービス
などとして定義される。
 本実施の形態におけるポータルサービス30、ネットワークサービス31、マーケットプレイス32、コンテンツ制作ツール33は、それぞれユーザが独立してサインインして利用できるサービスであるとする。但し、いずれかのサービスにサインインした場合は、他のサービスには再度サインイン操作をすることなく、サインイン状態を維持できるものとする。なおサインインしなくとも、ページ閲覧その他の限られた機能は実行可能である。
 また本実施の形態におけるポータルサービス30、ネットワークサービス31、マーケットプレイス32、コンテンツ制作ツール33は、それぞれ異なる機能を備えるものであり、実行可能な機能別に区別されたサービスであるとも言える。
 さらにポータルサービス30、ネットワークサービス31、マーケットプレイス32、コンテンツ制作ツール33は、無料で利用できるものでもよいが、異なる料金体系で利用できるものとすることもできる。
 [3-1:サインインまでの処理]
 図9,図10,図11は、図8の情報処理装置70としての構成を備える端末装置22におけるポータルサービス30の実行時の処理例である。以下の説明における端末装置22の処理とは、端末装置22とされた情報処理装置70のCPU71の処理である。特に言えば以下の端末装置22の処理とは図8のサービス対応制御部71aの処理といえる。またサーバ装置10の処理とは、サーバ装置10とされた情報処理装置70のCPU71の処理である。
 なお本開示における各フローチャートにおいては「c1」から「c15」により、処理の繋がりを示している。
 先ず図9は、端末装置22において例えばポータルサービス30としてのアプリケーションプログラムを起動し、サインインするまでの処理を示している。
 ステップS101で端末装置22においてポータルサービス30のアプリケーションプログラムを起動される。なお端末装置22においてブラウザを起動してポータルサービス30のウェブページにアクセスする形態でもよい。
 ステップS102では端末装置22は必要な同意処理を行う。例えば必要に応じて、ユーザに、ソフトウェアの使用許諾やプライバシーポリシーの同意を得る処理を行う。
 ステップS103で端末装置22はカメラ21とのペアリング処理を行う。例えばブルートゥース等の近距離無線通信により端末装置22とカメラ21の通信を確立する。
 通信接続時には、通信可能なカメラ21、つまり端末装置22の周囲に存在し、無線通信機能を備えたカメラ21を検索する。そして端末装置22の画面上では、例えば図12Aのようにカメラ選択画面100を表示させ、検索した通信可能なカメラ21を一覧表示する。この場合に端末装置22は、検出されたカメラ21についてペアリングボタン102や、情報ボタン103を表示させる。ペアリングボタン102はペアリング可能な状態にあるカメラ21を示すものであるとともに選択ボタンとなる。情報ボタン103は、無線通信機能を有するが無線通信可能なペアリングモードにないカメラ21であることを通知するためのボタンである。この場合、カメラ21側の操作でペアリング可能となる場合がある。
 ユーザが或るカメラ21についてのペアリングボタン102を操作すると、端末装置22はそのカメラ21とのペアリングを実行し、ペアリング完了により図12Bのような接続完了画面110を表示させる。接続完了画面110には続行ボタン111を用意し、ユーザが続行ボタン111のタップ等の操作をすることで、端末装置22は図9のステップS103からステップS104に進む。
 ステップS104で端末装置22は、通信接続したカメラ21が初期設定を完了しているか否かを判定する。端末装置22はカメラ21との通信によりカメラ21の状態を確認し、初期設定を終えていない場合は、ステップS105でカメラ初期設定の処理を行う。
 ステップS105のカメラ初期設定の処理を図11に詳しく示す。
 ステップS170で端末装置22はカメラセットアップ画面120を表示させる。図13Aにカメラセットアップ画面120の例を示す。
 カメラセットアップ画面120では、日時/表示設定部121、機器名称設定部122、自動電源OFF温度設定部123、キャンセル部124、セットアップボタン125が表示される。
 日時/表示設定部121は、カメラ21の内部時計の年月日及び時刻を設定するための表示項目である。
 機器名称設定部122は、ユーザがカメラ21に対して任意の名称を設定するための表示項目である。
 自動電源OFF温度設定部123は、ユーザがカメラ21の自動電源オフ温度についてのモードを設定するための表示項目である。カメラ21が高温になったときに電源を自動的にオフする処理があるが、自動電源オフ温度設定とは、自動的にオフする温度の設定である。
 キャンセル部124は現時点の初期設定をキャンセルするための表示項目である。
 セットアップボタン125は、初期設定の実行ボタンである。
 このカメラセットアップ画面120を表示させた状態で、端末装置22は図11のステップS171からステップS175の操作待機を行う。
 ユーザが日時/表示設定部121についての進むボタン52を操作した場合、端末装置22はステップS171からステップS180に進む。
 なお実施の形態における画面に対する「操作」とは、主にタップ操作やクリック操作であるが、実際の操作態様は限定されない。スワイプ、フリック、ダブルタップ、ドラッグ等の操作でも良いし、タッチペン等を用いた操作であってもよい。
 ステップS180で端末装置22は図13Bの日時/表示設定画面130を表示させる。この日時/表示設定画面130では、表示形式を入力する入力フィールド131及びそのプルダウンボタン132や、日時133、サマータイムモード134が表示される。
 入力フィールド131については、ユーザは例えばプルダウンボタン132の操作により、表示形式として「Y-M-D」「M(英語)-D-Y」「M-D-Y」「D-M-Y」等を選択できる。「Y」は年(西暦)、「M」は月、「M(英語)」は「JANUARY」等の月の英語表記、「D」は日である。
 日時133では現在の日時を表示する。これは端末装置22の内部時計の現在日時を表示させる。日時は、入力フィールド131で現在選択中の表示形式で表示させる。
 サマータイムモード134は現在の端末装置22におけるサマータイムモード「入」「切」を表示させる。このためユーザは、現在の日時及びサマータイムモードを入力する必要はない。
 端末装置22は図11のステップS180では、ユーザの入力フィールド131についての操作、つまりプルダウンボタン132及びプルダウンメニューからの選択操作を監視する。そして操作に応じて日時133の表示形式を変更し記憶する。
 また端末装置22はステップS180では、ユーザの戻るボタン51の操作も監視しており、操作があった場合は、ステップS181からステップS170に戻って、図13Aのカメラセットアップ画面120を表示させる。従ってユーザは表示形式設定を行った後、或いは表示形式を変更せずに、元の画面に戻すことができる。
 カメラセットアップ画面120に対してユーザが機器名称設定部122の進むボタン52を操作した場合は、端末装置22はステップS172からステップS185に進む。ステップS185で端末装置22は図14Aの機器名称設定画面140を表示させる。この機器名称設定画面140では、機器名称を入力する入力フィールド141が表示される。
 入力フィールド141については、ユーザは任意にカメラ21の名称を入力することができる。なお入力フィールド141にはデフォルトの名称として、カメラ21からの通信で取得した名称を表示されるようにする。
 端末装置22はステップS185では、ユーザの入力フィールド141に対する入力操作に対応して文字表示及び記憶処理を行う。例えば端末装置22は入力フィールド141のタップなどに応じて操作用のキーボード等を表示させ、ユーザが文字や記号を入力できるようにするとともに入力に応じて文字列を記憶する。なお、音声入力を可能としてもよい。
 また端末装置22はステップS185では、ユーザの戻るボタン51の操作も監視しており、操作があった場合は、ステップS186からステップS170に戻って、表示を図13Aのカメラセットアップ画面120に戻す。従ってユーザはカメラ名称を入力した後、或いは入力せずにデフォルトのまま、元の画面に戻すことができる。
 カメラセットアップ画面120に対してユーザが自動電源OFF温度設定部123の進むボタン52を操作した場合は、端末装置22はステップS173からステップS188に進む。
 ステップS188で端末装置22は自動電源OFF温度設定画面(不図示)を表示させる。この自動電源OFF温度設定画面では、カメラ21を自動的にオフする温度の設定として「標準」「高」をユーザが任意に選択できるようにされている。
 例えば三脚などを用いて撮影する際に、自動電源OFF温度を「高」に設定しておくと記録時間を長くすることができる。
 端末装置22はステップS188では、ユーザの「標準」「高」の選択操作を監視して選択状態を記憶する。
 また端末装置22はステップS188では、ユーザの戻るボタンの操作を監視し、操作があった場合は、ステップS189からステップS170に戻って、図13Aのカメラセットアップ画面120を表示させる。従ってユーザは自動電源OFF温度を選択した後、或いはデフォルトのまま、元の画面に戻すことができる。
 ユーザによるキャンセル部124の操作を検知した場合、端末装置22はステップS174から図11の処理を終え、図9のステップS106に進む。
 ユーザによるセットアップボタン125の操作を検知した場合、端末装置22は図11のステップS175からステップS190に進み、カメラ21への設定書き込みの処理を行う。即ち端末装置22は、その時点で記憶している日時、日時の表示形式、サマータイムモード、機器名称、自動電源OFF温度設定を、カメラ21へ送信する。これによりカメラ21内で、送信情報に基づく初期設定が実行される。そして端末装置22は、カメラ21での初期設定完了の通知に応じて、図14Bのようなセットアップ完了画面150を表示させる。
 セットアップ完了画面150には開始ボタン151が表示される。ユーザがセットアップ完了画面150を確認し、開始ボタン151を操作することで、端末装置22は図11のステップS190の処理を終了し、図9のステップS106に進む。
 以上のように端末装置22においてカメラ21の初期設定が行われるため、ユーザは、カメラ21の内部時計の日時については、表示形式を選択するのみでよい。現在の日時やサマータイムモードは端末装置22の内部時計の現在時刻やサマータイムモードが反映されるためである。
 またユーザは端末装置22を用いてカメラ21の名称となる文字列を入力することができる。従ってユーザは文字列入力の際に、端末装置22の画面上のキーボード等を用いることができる。
 さらに自動電源OFF温度設定を画面上の簡易な選択で可能となる。
 このように端末装置22を用いることで、カメラ21の初期設定を簡易かつ円滑な操作で実行できるようになる。
 図9のステップS106では端末装置22はサインイン処理を実行する。例えば端末装置22は、ユーザによる自己のアカウントやパスワードの入力に応じて、ポータルサービス30に対するサインイン処理を実行する。
 [3-2:ポータルサービスのホーム画面の処理]
 サインインの完了により端末装置22は図10のステップS110に進み、図15のようなホーム画面200を表示させる。即ちポータルサービス30としてのホーム画面である。
 なおユーザはサインインしないことも選択できる。サインインしない場合は、端末装置22はいわゆるカタログページとしての画面を表示させる。
 サインインした場合の図15のホーム画面200では、タイトル部201、オペレートカメラボタン202、インポート画像エリア203、アップローデッド画像エリア204、レコメンドサービスエリア205などが表示される。
 タイトル部201では、サインインしたユーザのアカウント名や接続中のカメラ21の機器名称などが表示される。
 オペレートカメラボタン202は、後述のデバイス画面230へ遷移するためのボタンである。
 インポート画像エリア203には、サインインしたユーザが過去にカメラ21から端末装置22にインポートした画像の一部が表示される。また全てのインポート画像を見るための閲覧ボタン206も表示される。
 アップローデッド画像エリア204には、サインインしたユーザが過去にサーバシステム1にアップロードした画像の一部が表示される。また全てのアップロード画像を見るための閲覧ボタン207も表示される。
 レコメンドサービスエリア205には、サインインしたユーザに対してのお勧めのサービスについての情報が表示される。
 なおホーム画面200及び以降説明する各画面では、必要に応じて共通のメニュー、アイコンが表示される。
 例えば図15では画面上部にメニューアイコン53、ユーザアイコン54、通知アイコン55がある。また画面下部にホームアイコン60、カメラアイコン61、アプリアイコン62、ストレージアイコン63、ネットワークアイコン64等も表示される。
 なお各画面で表示されるホームアイコン60、カメラアイコン61、アプリアイコン62、ストレージアイコン63、ネットワークアイコン64は画面又はサービスの遷移を実行させるアイコンである。
 ホームアイコン60はホーム画面200に遷移するためのアイコンである。カメラアイコン61は図20のデバイス画面230に遷移するためのアイコンである。アプリアイコン62は図28のストア画面340に遷移するためのアイコンである。ストレージアイコン63は図30A又は図30Bのストレージ画面350に遷移するためのアイコンである。ネットワークアイコン64は図33のネットワークサービス31の画面に遷移するためのアイコンである。
 図15のホーム画面200では、ホームアイコン60の表示態様が他と異なるようにされ、現在ホーム画面200であることや、ホームアイコン60の操作による画面遷移は行われないことが示されている。
 このようなホーム画面200の表示の際に、端末装置22は図10のステップS111からステップS120の操作監視ループ処理を行う。
 デバイス画面230への遷移操作を検知した場合、端末装置22はステップS111から後述のデバイス画面230に遷移する。デバイス画面230への遷移操作とは、例えばオペレートカメラボタン202の操作、又はカメラアイコン61の操作である。
 ストア画面340への遷移操作を検知した場合、端末装置22はステップS112から後述のストア画面340に遷移する。ストア画面340への遷移操作とは、例えばアプリアイコン62の操作である。ストア画面340は、例えばマーケットプレイス32により提供される商品売買のページである。
 ストレージ画面350への遷移操作を検知した場合、端末装置22はステップS113から後述のストレージ画面350に遷移する。ストレージ画面350への遷移操作とは、閲覧ボタン206、207の操作やストレージアイコン63の操作である。インポート画像エリア203内の画像やアップローデッド画像エリア204内の画像に対するタップ等の操作をストレージ画面350への遷移操作としてもよい。
 ネットワークサービス31への遷移操作を検知した場合、端末装置22はステップS114からネットワークサービス31の画面(例えば後述のギャラリー画面400)に遷移する。ネットワークサービス31への遷移操作とは、例えばネットワークアイコン64の操作である。
 メニューアイコン53の操作を検知した場合、端末装置22はステップS115からステップS130のメニュー処理に進む。例えば端末装置22はメニュー項目の表示や操作に応じた画面表示、メニュー項目の設定変更などを行うと共に、所定の操作に応じてステップS110に戻る。
 通知アイコン55の操作を検知した場合、端末装置22はステップS116からステップS135の通知画面の処理に進む。例えば端末装置22は、図16Aのようなお知らせ画面210を表示させる。お知らせ画面210では、例えば一覧部211においてメッセージの一覧が表示される。またお知らせ画面210には設定ボタン212や、閉じるボタン56が表示される。
 端末装置22はステップS135において、お知らせ画面210に対するユーザ操作に応じた処理を行う。例えば端末装置22は、一覧部211で或るメッセージが選択される操作に応じて、図16Bのようなお知らせ詳細画面220を表示させ、メッセージの詳細内容を表示させる。例えば端末装置22は、お知らせ詳細221で詳細内容をテキスト等で表示させる。またブラウザで閲覧可能なウェブサイト等が存在する場合は、端末装置22は、遷移ボタン222により画面遷移ができるようにする。また端末装置22はゴミ箱アイコン223を表示させ、ゴミ箱アイコン223が操作された場合は、当該メッセージの削除処理を行う。また戻るボタン51が操作された場合は、端末装置22は表示をお知らせ画面210に戻す。
 また端末装置22はステップS135において、お知らせ画面210における設定ボタン212の操作に応じて設定内容の表示や、操作に応じた設定変更等を行う。また端末装置22は閉じるボタン56の操作に応じてステップS110に戻り、ホーム画面200の表示に戻す。
 端末装置22は、以上のお知らせ画面210、お知らせ詳細画面220では、ポータルサービス30によるメッセージだけでなく、他のサービスであるメッセージもまとめて表示させるようにしている。例えば後述するネットワークサービス31において制作したプロジェクトに対する「いいね」等の通知、他者によるフォローの通知、マーケットプレイス32での販売や購入に関する通知、コンテンツ制作ツール33による画像処理に関する通知なども、このポータルサービス30におけるお知らせ画面210で通知する。
 即ち端末装置22は、ストレージ11に格納された、サインイン中のユーザに対するメッセージを読み込んでお知らせ画面210の一覧部211を表示させる。上述したようにストレージ11にはユーザ毎に、各サービスで発生されたメッセージが記憶されているため、端末装置22がストレージ11に記憶されたメッセージを表示させることで、ユーザは複数サービスによる通知をポータルサービス30のお知らせ画面210でまとめて閲覧できる。
 ホーム画面200においてレコメンドサービスの操作を検知した場合、端末装置22はステップS117からステップS140のブラウザ起動の処理に進む。レコメンドサービスエリア205に表示された情報にはウェブページのリンク等が含まれており、端末装置22は操作に応じてブラウザを起動し、関連する紹介用のウェブページなどを表示させる。
 これによりユーザはレコメンドされたサービスについて詳しい内容を知ることができる。なお、その後はユーザの操作に応じてブラウジングが継続されたり、ブラウザの終了、最小化などによりステップS110のホーム画面に戻ったりする。
 図15のホーム画面200の例には示していないが、ホーム画面200から所定の表示を実行させて機器登録が行われるようにしてもよい。
 例えば端末装置22は、通信接続中のカメラ21からカメラ情報、装着しているレンズ鏡筒の情報、或いは接続している周辺機器の情報などを取得する。そしてストレージ11の機器情報を参照し、検出した機器がストレージ11に登録されていないものであればステップS118からステップS145に進み登録処理を行う。登録処理として、まずユーザに登録可能な旨の通知及び操作ボタンを表示させる。例えば名称が「〇〇〇」のカメラ21が登録可能である旨と、登録実行ボタンを表示させる。そしてユーザが登録実行ボタンを操作したら、当該検出されたカメラ21の機器情報をサーバ装置10に送信し、当該ユーザに紐づけた機器情報としてストレージ11に記憶されるようにする。そしてステップS110に戻る。
 なお、ホーム画面200に機器登録ボタンを用意し、ユーザが機器登録ボタンを操作したら、ステップS118からステップS145に進むようにしてもよい。例えばユーザが機器登録ボタンを操作したら、ステップS145で端末装置22は、先ず通信接続中のカメラ21からカメラ情報、装着しているレンズ鏡筒の情報、或いは接続している周辺機器の情報などを取得する。そしてストレージ11の機器情報を参照し、検出した機器がストレージ11に登録されていないものであればカメラ21等の機器情報をサーバ装置10に送信し、当該ユーザに紐づけた機器情報としてストレージ11に記憶されるようにする。現在接続中のカメラ21等が既に登録済み等であれば、その旨ユーザに通知する。そしてステップS110に戻る。
 ステップS120で端末装置22は終了処理を監視している。例えばポータルサービス30の終了操作、サインアウト操作などを行った場合、端末装置22はステップS120からステップS155に進み、終了処理を行って、ポータルサービス30に関する処理を終了する。
 [3-3:デバイス画面の処理]
 続いてデバイス画面へ遷移した場合の処理を図17,図18,図19で説明する。
 端末装置22は例えばホーム画面200におけるデバイス画面への遷移操作に応じて、図10のステップS111から図17のステップS200に進み、デバイス画面230を表示させる。デバイス画面230の例を図20に示す。
 なお、ホーム画面200以外の画面(ストア画面340、ストレージ画面350、ネットワークサービス31の画面等)から図17のステップS200に進む場合もある。
 デバイス画面230でも、ホーム画面200と同様にメニューアイコン53、ユーザアイコン54、通知アイコン55、ホームアイコン60、カメラアイコン61、アプリアイコン62、ストレージアイコン63、ネットワークアイコン64等が表示される。
 このデバイス画面230を含めて、以下説明していく各画面でも、これらのアイコンは表示される。これらのアイコンの操作時についての重複説明は避けるが、ホーム画面200において説明した処理と同様の処理が行われる。
 なおデバイス画面230では、カメラアイコン61の表示態様が他と異なるようにされ、現在デバイス画面230であることや、カメラアイコン61の操作による画面遷移は行われないことが示される。
 デバイス画面230では、カメラ情報表示部231において、通信接続中のカメラ21から受信したカメラ21の情報が表示される。例えばカメラ情報表示部231には、カメラ21のサムネイルやアイコン、上述の初期設定等で設定したカメラ21の名称、現在の接続状態、記録残量、電池残量などが表示される。これによりユーザは通信接続中のカメラ21の状態を認識できる。
 またデバイス画面230には、カメラ追加アイコン232、機器リストアイコン233、セットアップアイコン234、リモートボタン235、ビュー/インポートボタン236、セットアップボタン237、自己診断ボタン238も表示される。
 このようなデバイス画面230を表示させた状態では端末装置22は、図17のステップS201,S202,S203,S204、図18のステップS205,S206、図19のステップS207の操作監視ループの処理を行う。
 なお、図17,図18,図19はデバイス画面230における全てのユーザ操作に対応した処理を示しているわけではない。例えばホームアイコン60、カメラアイコン61、アプリアイコン62、ストレージアイコン63、ネットワークアイコン64の操作に応じた処理は省略している。
 図17,図18,図19はあくまで、デバイス画面230における一部の操作に応じた処理を抽出して示しているものである。
 デバイス画面230において機器リストアイコン233の操作を検知した場合、端末装置22は図17のステップS201からステップS210に進み、機器情報を取得する。即ち端末装置22はサーバ装置10と通信し、当該ユーザに紐づけられてストレージ11に記憶されている機器情報を取得する。
 ステップS211で端末装置22は、取得した機器情報に基づいて、図21Aのような所有機器リスト画面240を表示させるとともに、当該画面に対する操作に応じた処理を行う。
 所有機器リスト画面240では、機器リスト部241において、登録されたカメラ21等の機器のリストが表示される。また機器リスト部241に挙げられた機器毎にメニューボタン243が表示される。ステップS211で端末装置22は、メニューボタン243の操作に応じて、メニューで用意された処理を行う。メニュー項目としては、例えば機器に対応して当該ポータルサービス30で実行可能な機能の説明の表示、機器の取扱説明書のウェブサイトへの遷移、レンズ互換情報の表示、アクセサリ(周辺機器)の互換情報の表示などが想定される。
 また所有機器リスト画面240では編集ボタン242が表示される。ステップS211で端末装置22は、編集ボタン242の操作に応じて、機器リストの編集画面を表示させ、編集操作に対応した処理を行う。
 また端末装置22は閉じるボタン56の操作に応じてステップS212からステップS200に戻り、デバイス画面230の表示に戻す。
 機器情報が登録されていない状態でユーザが機器リストアイコン233の操作を行った場合は、端末装置22はステップS210で図21Bのように、登録された機器がない旨の表示を行う。そして閉じるボタン56の操作に応じてステップS212からステップS200に戻り、デバイス画面230の表示に戻す。
 なお、カメラ21等の機器の登録や削除などは、カメラ追加アイコン232の操作から行われるものとするが、例えば所有機器リスト画面240から削除や登録内容の変更等が可能となるようにしてもよい。
 デバイス画面230においてビュー/インポートボタン236の操作を検知した場合、端末装置22はステップS202からステップS220に進み、カメラ21との通信により、カメラ21に記憶されている画像データの情報を取得する。そしてステップS221で図22のようなビュー/インポート画面250を表示させる。
 ビュー/インポート画面250では、条件表示部251、画像数255、フィルタボタン253、画像一覧部252、取り込みボタン254等が表示される。
 条件表示部251において適用されているフィルタ条件が表示される。例えば撮影日、撮影日範囲、画像形式などが条件として表示される。フィルタボタン253の操作に応じてフィルタ条件が選択される。
 画像一覧部252には、カメラ21に記録されている画像のうちで、フィルタ条件で抽出された画像データのサムネイルが一覧表示される。各サムネイルに対しては、ユーザはタップ操作等によりチェックオン/チェックオフの操作が可能とされる。
 端末装置22はステップS221の処理として、以上のようなビュー/インポート画面250を表示させるとともに、ユーザの操作に対応する処理を行う。例えばフィルタ選択、フィルタ条件に応じた画像一覧部252の表示、サムネイル対するチェックオン/オフに応じた表示等を行う。また端末装置22は、取り込みボタン254の操作に応じて、その時点でチェックオンとされているサムネイルに対応する画像データを、カメラ21から取り込む処理を行う。
 また端末装置22は戻るボタン51の操作に応じてステップS222からステップS200に戻り、デバイス画面230の表示に戻す。
 なおビュー/インポート画面250によりカメラ21から取り込んだ画像については、端末装置22は、それをサーバシステム1に転送し、ストレージ11に記憶させるようにすることができる。例えば端末装置22がカメラ21に取り込んだ画像は、自動的にストレージ11にもアップロードされ、端末装置22とストレージ11で同期状態を保って保存されるようにしてもよい。ここでいう「同期」とは、端末装置22とストレージ11で記憶される画像データが同じデータ内容となるように維持されることを言う。なお前述した機器情報についても同期されるようにすることも考えられる。
 或いは端末装置22がカメラ21に取り込んだ画像は、自動的にアップロードされるのではなく、ユーザの選択及びアップロード操作などに応じて端末装置22からサーバシステム1に送信され、ストレージ11に記憶されるようにしてもよい。
 デバイス画面230においてリモートボタン235の操作を検知した場合、端末装置22はステップS203からステップS230に進み、カメラ21との通信状態を確認し、遠隔操作の対象とするカメラ21を決定する。
 ステップS231で端末装置22は、遠隔操作の対象としたカメラ21の機種に応じて使用可能機能を決定する。そして端末装置22は、ステップS232でカメラ21の機種毎の操作機能に応じた図23のようなリモート操作画面260を表示させる。
 リモート操作画面260は、モニタ部261や操作部262を有する画面とされる。
 モニタ部261には、対象のカメラ21のビューファインダーやモニタ画面に表示される画像内容が表示される。つまりユーザは、モニタ部261の画像により、カメラ21を使用しているときと同様の画像を確認できる。具体的にはカメラ21におけるスルー画(撮像画像)、メニュー画面、各種アイコン等がカメラ21と同様に表示される。表示する画像は通信によりカメラ21から受信する。
 操作部262には、カメラ21についての各種の操作子が表示される。例えばシャッターボタン、フォーカスボタン、ズームボタン等の基本的な操作ボタンや、シャッタースピード、EV、F値、ISO感度、ホワイトバランス、撮影モードなどの操作子が表示される。この場合に、カメラ21の機種に応じて操作機能が異なるため、遠隔操作対象の機種に応じて、表示される操作子が異なるようにされる。
 例えば段階的なズームなどの特殊なズーム機能、追尾フォーカス機能など、機種によって有したり有していなかったりする機能がある。そこで、機種に適応して、その機種において操作可能な機能のための操作子が表示されるようにする。
 これにより操作部262は、操作対象のカメラ21に合致した操作子群として表示されるようになり、ユーザにとって使用性のよい操作環境を提供できる。
 具体的なリモート操作画面260の表示のための処理手法はいくつか想定される。
 例えば端末装置22は、遠隔操作対象としたカメラ21の機種情報をサーバシステム1に送信し、サーバシステム1からそのカメラ21に応じたリモート操作画面260の情報を受信して表示するという処理が想定される。
 或いは端末装置22は、カメラ21の機種毎の操作機能を記憶しておき、遠隔操作対象のカメラ21を決定した際に、そのカメラ21の機種に応じて操作部262の内容を設定するという処理も可能である。
 或いは、端末装置22は、遠隔操作対象としたカメラ21の機種情報をサーバシステム1に送信し、サーバシステム1からそのカメラ21の操作機能の情報を受け取り、その情報に応じて操作部262の内容を設定するという処理も可能である。
 端末装置22はステップS232の処理として、以上のようにカメラ21の機種に応じたリモート操作画面260を表示させるとともに、操作部262の操作子に対するユーザの操作に応じて、操作情報をカメラ21へ送信する処理を行う。
 また端末装置22は戻るボタン51の操作に応じてステップS233からステップS200に戻り、デバイス画面230の表示に戻す。
 デバイス画面230においてセットアップボタン237の操作を検知した場合、端末装置22はステップS204からステップS240に進み、図24Aのようなカメラセットアップ画面120を表示させる。
 このステップS240で端末装置22は、カメラ21との通信接続状態の確認を行うとともに、通信接続中であれば、セットアップ画面270として、位置情報連動設定部271や転送通知設定部272を表示させる。
 また端末装置22は、転送通知設定部272についての進むボタン52が操作された場合、図24Bの転送通知設定画面290を表示させる。この転送通知設定画面290はカメラ21を選択して画像転送が行われる場合に端末装置22に通知するための設定を行う画面であり、転送開始通知設定ボタン291が表示される。これによりユーザは転送開始通知のオン/オフを選択できる。
 転送通知設定画面290における戻るボタン51が操作されたら、端末装置22は、図24Aのセットアップ画面270に戻す。
 また端末装置22は、位置情報連動設定部271についての進むボタン52が操作された場合、図25Aの位置情報連動設定画面280を表示させる。この位置情報連動設定画面280は、端末装置22の位置情報をカメラ21と連動させる設定を行う画面であり、位置情報連動設定ボタン281が表示される。
 ユーザが位置情報連動設定ボタン281をオンとすると、端末装置22は、図25Bのように、さらに自動時刻補正ボタン282と自動エリア補正ボタン283を表示させる。ユーザはこれらにより自動時刻補正と自動エリア補正の機能のオン/オフを選択できる。
 位置情報連動設定画面280における戻るボタン51が操作されたら、端末装置22は、図24Aのセットアップ画面270に戻す。
 端末装置22はステップS240で、以上の様な画面表示、画面遷移と、操作に応じたカメラ21の設定変更の処理、即ちカメラ21への設定変更の情報の送信などを行う。
 このような処理により、ユーザはカメラ21に比較して操作性のよい端末装置22を使用して、カメラ21の設定変更を行うことができる。なおセットアップ画面270から変更できる設定の項目として位置情報連動設定と転送通知設定を挙げたが、他の項目の設定を可能としても良い。
 端末装置22はセットアップ画面270の戻るボタン51の操作に応じてステップS241からステップS200に戻り、デバイス画面230の表示に戻す。
 デバイス画面230においてカメラ追加アイコン232の操作を検知した場合、端末装置22は図18のステップS205からステップS250に進み、ペアリング処理を行う。この場合の端末装置22は、図9のステップS103と同様に、まず通信可能なカメラ21、つまり端末装置22の周囲に存在し、無線通信機能を備えたカメラ21を検索する。そして図18のステップS251で、図12Aで説明したカメラ選択画面100を表示させ、検索した通信可能なカメラ21を一覧表示する。
 そして端末装置22は、例えばユーザがペアリングボタン102を操作することに応じて、その選択されたカメラ21を登録機器として追加する処理を行う。即ち端末装置22はステップS252からステップS253に進み、選択されたカメラ21の機器情報をサーバシステム1に送信し、ストレージ11において当該ユーザに紐づけて登録する。
 なお、カメラ21との通信でレンズ鏡筒や周辺機器の情報も得られる場合、それらの機器情報もサーバシステム1に送信し、ストレージ11に登録させるようにしてもよい。
 ユーザがカメラ選択画面100や、或いは登録を通知する画面を閉じる操作を行うことに応じて端末装置22はステップS254から図17のステップS200に戻り、デバイス画面230の表示に戻す。
 なお先の図9の説明では述べなかったが、図9のステップS103でカメラ21とのペアリングを行った場合に、そのカメラ21が未登録のものであった場合は、端末装置22はサインインの後、サーバシステム1にカメラ21の機器情報を送信し、ストレージ11において当該ユーザに紐づけて登録するようにしてもよい。
 さらにサインイン中に新たにペアリングされたカメラ21が未登録のものであった場合は、端末装置22はサーバシステム1にカメラ21の機器情報を送信し、ストレージ11において当該ユーザに紐づけて登録するようにしてもよい。
 つまりカメラ追加アイコン232の操作ではなく、自動的に機器登録が行われるようにしてもよい。
 もちろん自動的に機器登録しようとするときは、ユーザに対して登録するかしないかを問う画面を表示させ、回答に従って処理するようにするとよい。
 端末装置22は、デバイス画面230を表示している場合などには、そのデバイスについての本体ソフトウェアのアップデートの有無の判定を行う。例えば端末装置22はデバイス画面230で表示している通信接続中のカメラ21から本体ソフトウェア情報を取得する。そして端末装置22はサーバシステム1に対して本体ソフトウェア情報を送信し、最新の本体ソフトウェアの確認を要求する。アップデートすべき最新の本体ソフトウェアが存在する場合は、サーバシステム1は端末装置22に対して最新の本体ソフトウェアの存在を通知する。このような処理で新しい本体ソフトウェアが存在すると判定した場合、端末装置22は、図18のステップS206からステップS260に進み、アップデート通知を行う。
 例えば端末装置22は図26Aのアップデート通知画面300を表示させ、ユーザにカメラ21がアップデート可能であることを知らせる。アップデート通知画面300は次ボタン301を含み、ユーザがアップデート実行の操作を可能とする。
 ステップS261で端末装置22は、ダウンロードの実行有無をユーザ操作に応じて判定する。アップデート通知画面300においてユーザが閉じるボタン56を操作した場合、端末装置22はダウンロードを実行せずにステップS261から図17のステップS200に戻る。
 アップデート通知画面300においてユーザが次ボタン301を操作した場合、端末装置22は図18のステップS261からステップS262に進みダウンロード処理を行う。即ちアップデートする本体ソフトウェアをサーバシステム1からダウンロードする。端末装置22は、ダウンロード中はダウンロード画面を表示させ、ダウンロード完了に応じて図26Bのダウンロード完了画面310を表示させる。ダウンロード完了画面310には転送ボタン311が含まれる。
 ステップS263で端末装置22は、アップロードデータとしての本体ソフトウェアの転送を実行するか否かを判定する。ダウンロード完了画面310においてユーザが閉じるボタン56を操作した場合、端末装置22は転送を実行せずにステップS263から図17のステップS200に戻る。
 ダウンロード完了画面310においてユーザが転送ボタン311を操作した場合、端末装置22は図18のステップS263からステップS264に進み、ダウンロードした本体ソフトウェアをカメラ21へ転送する処理を行う。
 そして端末装置22は、転送完了に応じてステップS265で図26Cのアップデート完了画面320を表示させる。
 アップデート完了画面320に対してユーザが閉じるボタン321又は閉じるボタン56を操作したら、端末装置22はステップS266から図17のステップS200に戻る。
 デバイス画面230において自己診断ボタン238の操作を検知した場合、端末装置22は図19のステップS207からステップS270に進み、サーバシステム1に対して診断要求を送信する処理を行う。即ち端末装置22は通信接続中のカメラ21から取得した機器ログやカメラ21の機器情報(機種名、製造者名など)をサーバシステム1に送信する。
 サーバ装置10はステップS301で診断要求を受信したら、ステップS302でカメラ21の機器情報や機器ログを取得し、ステップS303で診断処理を行う。サーバ装置10は機器ログのエラー実績等に基づいて、診断結果の情報や、必要な対処方法の情報、或いは修理推奨の情報などを生成する。サーバ装置10では、診断対象のカメラ21によって撮影され、アップロードされていた画像データを用いて診断を行うこともできる。
 そしてサーバ装置10はステップS304で診断結果を端末装置22に送信する。
 端末装置22はステップS271で診断結果を受信し、ステップS272で診断結果を表示する。この場合、診断結果、対処方法などをユーザに対して表示する。この場合に、問い合わせのためのチャットボット機能30c2の表示やヘルプボタンの表示などを行い、操作に応じて図5で述べたチャットボット機能30c2やヘルプ機能30c3との連携を行うようにしてもよい。
 ユーザが診断結果の提示画面を閉じる操作を行うことに応じて、端末装置22はステップS273から図17のステップS200に戻る。
 このようにデバイス画面230に自己診断ボタン238が設けられ、診断結果が表示されるようにすることで、ユーザは使用するカメラ21の状態を端末装置22のユーザインタフェースを利用して容易に確認できるようになる。
 [3-4:ストア画面の処理]
 続いて図10のステップS112からストア画面340(図28)へ遷移した場合の処理を図27で説明する。なお、ホーム画面200以外の画面(デバイス画面230、ストレージ画面350、ネットワークサービス31の画面等)からストア画面340に進む場合もある。
 ストア画面340は商品の売買を行うことができる画面である。ストア画面340は、マーケットプレイス32と連携してポータルサービス30内で提示される画面としてもよいし、ポータルサービス30からマーケットプレイス32に遷移して表示される画面としてもよい。
 端末装置22は例えばホーム画面200におけるストア画面340への遷移操作に応じて図10のステップS112から図27のステップS280に進み、サインインしたユーザについて登録されたカメラ21に応じた商品の情報を取得する。即ち端末装置22はサーバ装置10に、当該ユーザについて登録されたカメラ21やレンズ鏡筒、周辺機器に関する商品の情報を要求し、該当する情報を受信する。
 ここでいう商品の情報とは、例えば、ユーザが所有するカメラ21に適応するアプリケーションプログラム、ライセンスなどのソフトウェア商品がある。またカメラ21の周辺機器や適合するレンズ鏡筒などの実体物が商品とされてもよい。
 さらに、後述するネットワークサービス31で生成される他者のプロジェクト(画像集)が商品とされてもよい。プロジェクトの場合は、例えばサインインしたユーザの嗜好やジャンルなどに応じてお勧めのプロジェクトが提示される商品として選定されるとよい。
 端末装置22はステップS281でストア画面340を表示させる。ストア画面340の例を図28に示す。
 ストア画面340では、アプリアイコン62の表示態様が他と異なるようにされ、現在ストア画面340であることや、アプリアイコン62の操作による画面遷移は行われないことが示される。
 ストア画面340では、例えばアプリケーション一覧341として、商品としてのアプリケーションプログラムが提示される。またライセンス一覧342において商品としてのライセンスが提示される。
 この他、プロジェクト一覧や、関連する物品一覧などが表示されてもよい。
 端末装置22は、商品として提示されたアプリケーションプログラム等に対するユーザの操作に応じてステップS282からステップS283に進み、対応処理を行う。
 対応処理は、例えば詳細情報の表示、販売者の情報の表示、購入処理、精算処理などが想定される。当該対応処理は、マーケットプレイス32に遷移して実行される処理としてもよい。
 [3-5:ストレージ画面の処理]
 続いて図10のステップS113からストレージ画面350(図30A、図30B)へ遷移した場合の処理を図29で説明する。なお、ホーム画面200以外の画面(デバイス画面230、ストア画面340、ネットワークサービス31の画面等)からストレージ画面350に進む場合もある。ストレージ画面350は記憶された画像を提示する画面である。
 端末装置22は例えばホーム画面200におけるストレージ画面350への遷移操作に応じて図10のステップS113から図29のステップS310に進み、現在提示する対象がローカルストレージかクラウドストレージかを判定したうえでステップS311又はステップS312に進む。
 現在の設定(初期設定又は前回の表示の際の最後の設定)がローカルストレージである場合は、端末装置22はステップS311に進み、カメラ21から端末装置22に取り込んでいる画像を一覧表示させる。例えば図30Aのようにストレージ画面350を表示させる。
 ストレージ画面350にはローカルタブ351とクラウドタブ352が設けられており、ステップS311では、ローカルタブ351が選択されている状態でストレージ画面350を表示させることになる。
 またステップS310で現在の設定がクラウドストレージである場合は、端末装置22はステップS312に進み、サーバシステム1にアップロードしている画像を一覧表示させる。例えば図30Bのようにクラウドタブ352が選択されている状態でストレージ画面350を表示させることになる。
 このストレージ画面350では、タブ操作が検知されると、端末装置22はステップS313からステップS310に戻り、選択されたタブに応じてステップS311又はステップS312に進む。従ってローカルタブ351とクラウドタブ352の操作に応じて、図30Aの状態と図30Bの状態が切り替えられることになる。
 ストレージ画面350では、ストレージアイコン63の表示態様が他と異なるようにされ、現在ストレージ画面350であることや、ストレージアイコン63の操作による画面遷移は行われないことが示される。
 ストレージ画面350における一覧部353には、画像データがサムネイルにより一覧表示される。また各サムネイルとともに、画像データの形式(RAWデータ、JPEGデータ等の別)やファイル名が表示される。
 一覧部353に表示される画像は、フィルタ条件を設定して抽出できる。条件表示部354にはフィルタ条件が示される。例えば撮影日時、撮影日時の範囲、データ形式などが条件として表示される。フィルタボタン355の操作に応じてフィルタ条件が選択される。また一覧部353に表示される画像の画像数357も表示される。
 ストレージ画面350には選択ボタン356が設けられ、選択ボタン356の操作を検知した場合、端末装置22は、ステップS314からステップS320に進む。ステップS320で端末装置22は選択処理を行う。
 例えば端末装置22はステップS320で、図31に示すように画像選択画面360を表示させる。
 画像選択画面360は、一覧部353の各画像に対してチェックボックス365が表示され、また全アイテムに対する全選択ボックス364も表示される。
 また画像選択画面360には削除ボタン363や選択数361が表示される。
 端末装置22はステップS320において、ユーザが画像に対する操作を行うことに応じてチェックボックス365のチェックオン/オフの設定及び表示の処理を行う。
 また端末装置22はユーザの全選択ボックス364の操作に応じて全画像のチェックボックス365の一括のチェックオン/オフの設定及び表示を行う。
 これにより、ユーザは、ローカルストレージやクラウドストレージの画像について、任意に選択していくことができる。端末装置22は、選択されている画像の数は、選択数361で表示されるようにする。
 端末装置22はステップS321において、削除ボタン363の操作を監視する。削除ボタン363の操作を検知した場合は、端末装置22はステップS322に進み、削除処理を行う。
 ローカルタブ351を開いている状態で選択ボタン356の操作によりステップS320に進んだ場合は、画像選択画面360でローカルタブ351の一覧部353に対して選択が行われる。この場合に削除ボタン363の操作を検知した場合は、端末装置22はステップS322で、端末装置22に記憶されている画像について削除処理を行う。
 一方、クラウドタブ352を開いている状態で選択ボタン356の操作によりステップS320に進んだ場合は、画像選択画面360でクラウドタブ352の一覧部353に対して選択が行われる。この場合に削除ボタン363の操作を検知した場合は、端末装置22はステップS322で、サーバ装置10に選択された画像の削除要求を送信し、ストレージ11において選択された画像が削除されるようにする。
 ユーザが画像選択画面360で閉じるボタン56を操作した場合は、端末装置22はステップS323からステップS310に戻り、ステップS311又はステップS312でストレージ画面350に戻す。
 ストレージ画面350においてフィルタボタン355の操作を検知した場合は、端末装置22はステップS315からステップS330に進み、フィルタ処理を行う。例えば端末装置22はユーザ操作に応じたフィルタ条件の設定、フィルタ処理の実行、抽出された画像による一覧部353での表示更新等の処理を行う。
 なお、図29には示していないが、例えばストレージ画面350の段階で、ローカルタブ351の画像の全部又は一部を、サーバシステム1にアップロードする操作を可能としてもよい。例えばローカルタブ351についての図31の画像選択画面360にアップロードボタンを設け、アップロードボタンの操作に応じて、選択されている画像がアップロードされるなどの操作手法が考えられる。
 またストレージ画面350では、カメラタブ、ローカルタブ、クラウドタブとして、接続中のカメラ21に記憶されている画像一覧、端末装置22に記憶されている画像一覧、ストレージ11に記憶されている画像一覧を、それぞれ表示可能としてもよい。
 また上述のように端末装置22とストレージ11で記憶される画像が同期される場合は、ローカルタブとクラウドタブを区別しなくてもよい。
 [3-6:ネットワークサービスのトップ画面の処理]
 続いて図10のステップS114からネットワークサービス31の画面へ遷移した場合の処理を図32で説明する。
 なお図32はネットワークサービス31に遷移した場合の端末装置22の処理であるが、全ての処理を示すものではなく、実施の形態の説明として抽出した処理のみを示している。
 端末装置22は例えば図10のステップS114から図32のステップS400に進んだ場合、ネットワークサービス31のトップ画面を表示させる。例えば図33のギャラリー画面400がネットワークサービス31のトップ画面とされる。
 なお、ホーム画面200以外の画面(デバイス画面230、ストア画面340、ストレージ画面350、ネットワークサービス31の他の画面等)からギャラリー画面400に進む場合もある。
 ネットワークサービス31は上述のようにSNSとしての機能を持ち、ギャラリー画面400は、サインイン中のユーザに対するトップ画面となる。
 なお、以下説明していくネットワークサービス31による各画面は、説明上、PCやタブレットなどの比較的広い表示画面に対応した画像例とする。但し、スマートフォンのような縦長の画面でも良いことはいうまでもない。同様に上述のポータルサービス30の各画面はスマートフォンを想定した縦長画面の例としているが、PC等の表示部を用いた横長の画面例も存在する。
 以下説明していくネットワークサービス31による各画面は、ストレージ11に記憶されたユーザ毎の機器情報、画像情報、ユーザ情報を用いてサーバ装置10によって構成され、端末装置22に提供される。つまりポータルサービス30やマーケットプレイス32により登録された情報も画面に反映される。
 なおネットワークサービス31による各画面とは、ギャラリー画面400、ディスカバー画面410、アーティクル画面430、プロジェクト詳細画面450、プロジェクト作成画面480、プロジェクト編集画面500、マイページ画面600、マイページ画面640等である。
 また以下説明していくネットワークサービス31による各画面でも、ユーザアイコン54、通知アイコン55、ホームアイコン60、カメラアイコン61、アプリアイコン62、ストレージアイコン63、ネットワークアイコン64も表示され、これらの操作で画面の遷移が可能とされる。
 これらネットワークサービス31の画面では、ネットワークアイコン64の表示態様が他と異なるようにされ、現在ネットワークサービス31の画面であることや、ネットワークアイコン64の操作による画面遷移は行われないことが示される。
 ネットワークサービス31の画面では、ギャラリータブ401、ディスカバータブ402、アーティクルタブ403が表示され、図33のギャラリー画面400と、図35のディスカバー画面410と、図38のアーティクル画面430の間での画面の切り替えが行われる。
 図33はギャラリー画面400であるが、これはギャラリータブ401が選択されている状態である。ユーザがディスカバータブ402を操作すると、端末装置22は図32のステップS401からディスカバー画面410の処理に移行する。またユーザがアーティクルタブ403を操作すると、端末装置22はステップS402からアーティクル画面430の処理に移行する。
 図33のギャラリー画面400では、プロジェクト作成ボタン404が表示される。またギャラリー画面400には、ピックアップギャラリー405、レコメンドセレクション406などの領域が用意され、画像等のコンテンツやプロジェクトが表示される。
 例えばピックアップギャラリー405には、評判のよいクリエイターのプロジェクトやコンテンツ、話題になっているプロジェクトやコンテンツ等が表示される。
 またレコメンドセレクション406には、サインイン中のユーザに対してお勧めのプロジェクトやコンテンツが表示される。例えばユーザと同じジャンルのクリエイターのプロジェクトや、同じカメラ21を使用するクリエイターのプロジェクト等を表示させることが考えられる。
 また例えば、プロジェクトに対してクリエイターのアイコン57が表示される。プロジェクトにマウスカーソルをホバーすると、タイトル、いいね数、作者名、閲覧数などが表示されるようにする。
 これらのピックアップギャラリー405、レコメンドセレクション406などにより、閲覧しているユーザに対して他のクリエイターのプロジェクト等を紹介できる。
 また表示されるプロジェクト等がマーケットプレイス32で販売されるものである場合は、販売中アイコン407や販売終了アイコン408などの販売情報が表示される。
 端末装置22は図32のステップS400で、サーバ装置10から送信される情報に基づいて、これらの表示を実行する。
 端末装置22は、ギャラリー画面400において図32のステップS401からステップS406に示す処理を行うが、上述のようにタブ操作に応じてステップS401,S402でディスカバー画面410やアーティクル画面430に遷移する。
 ギャラリー画面400においてはピックアップギャラリー405やレコメンドセレクション406について全閲覧ボタン409が表示されており、この全閲覧ボタン409の操作によってもステップS401からディスカバー画面410に遷移する。
 ギャラリー画面400において表示されているプロジェクトを指定する操作(例えばプロジェクトのクリック)を検知した場合、端末装置22は図32のステップS403から後述のプロジェクト詳細画面450の処理に進む。
 ギャラリー画面400においてプロジェクト作成ボタン404の操作を検知した場合、端末装置22はステップS404から後述のプロジェクト作成画面480の処理に進む。
 ギャラリー画面400においてユーザアイコン54の操作を検知した場合、端末装置22はステップS405からマイページ画面600の処理に進む。マイページ画面600はユーザ自身のプロフィール等を表示するページである。
 ギャラリー画面400において例えばプロジェクトに付随して表示されている他者のアイコン57の操作を検知した場合、端末装置22はステップS406からマイページ画面640の処理に進む。マイページ画面600は閲覧しているユーザにとっての他者のプロフィール等を表示するページである。
 [3-7:ディスカバー画面の処理]
 ディスカバー画面410の処理を図34で説明する。端末装置22は例えば図32のステップS401から図34のステップS500に進んだ場合、図35のようなディスカバー画面410の表示処理を行う。そして図34のステップS501からステップS511等の操作監視を行う。
 ディスカバー画面410では、プロジェクト一覧418において、フィルタ条件で抽出されたプロジェクトが表示される。
 フィルタ条件は、ディスカバー画面410上でユーザが設定することができる。或いは図33の全閲覧ボタン409によりギャラリー画面400から遷移してきた場合は、その全閲覧ボタン409が対応するピックアップギャラリー405やレコメンドセレクション406に設定されていたフィルタ条件が初期的に有効とされ、抽出されたプロジェクトがプロジェクト一覧418に表示される。
 つまりディスカバー画面410は、サインイン中のユーザが、好みのプロジェクトを検索することに適した画面とされている。
 なおギャラリー画面400と同様、プロジェクト一覧418に表示される各プロジェクトについては、クリエイターのアイコン57が表示されたり、プロジェクトにマウスカーソルをホバーすると、タイトル、いいね数、作者名、閲覧数などが表示されたりするようにする。
 またプロジェクトについて、販売状況に応じて販売中アイコン407や販売終了アイコン408が表示されるようにもする。
 またここではプロジェクト一覧418が表示される例としているが、クリエイター一覧が表示されるようにしても良いし、プロジェクト一覧418とクリエイター一覧が切り替えられるようにしてもよい。
 ディスカバー画面410には、プロジェクト作成ボタン411、プロジェクト/クリエイター選択部412、サーチボタン413、テキストボックス414、フィルタボタン415、ソートボタン416、タグ417等が表示される。
 テキストボックス414に対してユーザは任意の文字を入力することができる。テキストボックス414に対する処理を検知した場合、端末装置22はステップS501からS520に進み、操作に応じた文字入力処理を行う。
 端末装置22は、例えばユーザの直接文字入力に応じて文字列のテキストボックス414での表示及び記憶を行う。また端末装置22は、テキストボックス414に対する文字入力中に、図36のように、よく検索されるキーワードの候補を表示する候補ウインドウ419を表示させるようにする。これにより、ユーザの文字入力をアシストすることもできる。これらのように端末装置22はステップS520でテキストボックス414に対する逐次文字入力や候補ウインドウ419からの候補文字列の選択等の処理を行ってステップS500に戻る。
 ディスカバー画面410におけるタグ417として各種のキーワードが提示される。よく使用されるワードや、そのユーザはよく使用するワードなどが、タグ417として逐次更新されながらステップS500の処理で表示される。このタグ417はテキストボックス414への入力に利用される。
 ユーザがタグ417のいずれかを操作した場合、端末装置22はステップS502からステップS521に進み、選択されたタグ417の文字列をテキストボックス414に追加する処理を行ってステップS500に戻る。
 例えば「car」というタグ417をユーザが選択した場合、テキストボックス414の文字列に「car」が追加される。
 ディスカバー画面410におけるプロジェクト/クリエイター選択部412は、検索対象をプロジェクトとするかクリエイターとするかを選択する操作子である。ユーザはいずれかを任意に選択できる。
 プロジェクト/クリエイター選択部412の操作を検知したら端末装置22はステップS503からステップS522に進み、検索対象をプロジェクトか、或いはクリエイターに設定する。そしてステップS500に戻る。
 端末装置22は、ユーザによるサーチボタン413の操作を検知した場合は、ステップS504からステップS523に進み、テキストサーチ処理を実行する。即ちテキストボックス414に入力された文字列によりプロジェクト又はクリエイターの検索を行う。
 具体的には端末装置22は、ステップS523で、テキストボックス414に入力された文字列、及びプロジェクト/クリエイター選択部412で選択された検索対象をサーバシステム1に送信する。これに応じてサーバ装置10がストレージ11に記憶されているプロジェクトやクリエイター(登録ユーザ)について文字列により検索を行う。プロジェクトやクリエイターの検索は、そのプロジェクトやクリエイターに付加されているタグ情報などを用いる。例えばプロジェクトについては「タイトル」「概要説明」「タグ」「機材情報(Exif:Exchangeable Image File Format)」「説明テキスト」などを検索対象とする。クリエイターについては「アバター名」「アバターID」「自己紹介テキスト」「表示させているカメラやレンズ鏡筒」 「興味あるもの(撮影ジャンル)」 「活動拠点」「撮影レベル」などを検索対象とする。
 サーバシステム1においては、このように検索を行って結果情報を端末装置22に送信する。端末装置22はサーバシステム1による検索結果の情報を受信する。
 端末装置22はステップS523でこのような処理を行って検索結果の情報を取得したら、ステップS500に戻ってディスカバー画面410を更新する。即ちプロジェクト一覧418において、検索結果のプロジェクト、或いは検索結果のクリエイターが作成したプロジェクトが表示されるようにする。
 またクリエイター一覧が表示される場合は、検索結果のクリエイターが表示されるようにする。
 なおこの例ではサーチボタン413の操作により検索が行われるようにしたが、テキストボックス414に文字が入力されるごとにインクリメンタルサーチを行うようにしてもよい。
 ディスカバー画面410におけるフィルタボタン415は、それぞれフィルタ条件が設定されている。例えばフィルタの種類としてカメラ、レンズ、ISO、シャッタースピード、F値、焦点距離などが用意され、これらの種別や値をフィルタ条件として設定できる。
 フィルタボタン415の操作を検知した場合、端末装置22はステップS505からステップS524に進み、操作されたフィルタボタン415の条件設定に応じてフィルタリングを行う。即ち端末装置22はプロジェクト一覧418において表示されているプロジェクトについてフィルタリングを行い、ステップS500に戻ってフィルタリング結果に応じたプロジェクト一覧418を表示させる。
 ソートボタン416は、各種の条件でソートを行うための操作子である。
 ソートボタン416の操作を検知した場合、端末装置22はステップS506からステップS525に進み、選択されたソート条件で、プロジェクト一覧418のソートを行う。つまりプロジェクト一覧418に表示されているプロジェクトについてソート条件で順序設定を行う。そして端末装置22はステップS500に戻ってソート結果に応じたプロジェクト一覧418を表示させる。
 ソートの条件としては、プロジェクト一覧418の場合、制作日時順、アップロード順、「いいね数」が多い順、フォロー数の多いクリエイターによるプロジェクト順などが想定される。またクリエイター一覧の表示の場合はフォロー数の多い順などが想定される。
 ユーザがプロジェクト一覧418の或るプロジェクトに対してマウスカーソルをホバーした操作を検知した場合、端末装置22はステップS507からステップS526に進み、プロジェクトの情報表示処理を行う。
 例えば上述のように、タイトル、いいね数、作者名、閲覧数などが表示されるようにする。販売中アイコン407や販売終了アイコン408などの販売情報が表示されるようにしてもよい。そしてステップS500に戻る。
 なお図36にはマウスカーソルMKがホバーしているプロジェクトについて作者名やタイトル等の情報表示が行われる例を示している。
 ユーザによるプロジェクトに対するクリック等の選択操作を検知した場合、端末装置22はステップS508からプロジェクト詳細画面450の処理に移行する。
 ディスカバー画面410においてプロジェクト作成ボタン411の操作を検知した場合、端末装置22はステップS509からプロジェクト作成の処理に進む。
 ディスカバー画面410においてクリエイター一覧を表示させている場合に、或るクリエイターに対してマウスカーソルをホバーした操作を検知した場合、端末装置22はステップS510からステップS527に進み、クリエイターの情報表示処理を行う。例えばクリエイターの氏名、ジャンル、活動拠点、投稿数などが表示されるようにする。そしてステップS500に戻る。
 ディスカバー画面410においてクリエイター一覧を表示させている場合に、或るクリエイターに対してのクリック等の選択操作を検知した場合、端末装置22はステップS511から、そのクリエイターのマイページ画面640の閲覧処理に移行する。これはサインイン中のユーザの端末装置22にとって、後述するマイページ画面640の閲覧処理となる。
 [3-8:アーティクル画面の処理]
 端末装置22は例えば図32のステップS402から図37のステップS550に進んだ場合、図38のようなアーティクル画面430の表示処理を行う。そしてステップS551,S552等の操作監視を行う。
 アーティクル画面430には、一覧部431が設けられ、販売会社が提供する画像(動画/静止画)、記事などのコンテンツが一覧表示される。例えばコンテンツのRSS(Rich Site Summary)に基づく表示が行われる。
 ユーザがコンテンツを指定する操作を行うと、端末装置22は図37のステップS551からステップS560に進み、例えばブラウザを起動してリンク先に遷移するなどの処理を行う。
 またアーティクル画面430には、プロジェクト作成ボタン404が表示される。ユーザがプロジェクト作成ボタン404を操作したことを検知した場合、端末装置22はステップS552からプロジェクト作成の処理に進む。
 [3-9:プロジェクト詳細画面の処理]
 プロジェクト詳細画面450の処理を図39,図40で説明する。
 端末装置22は図32のステップS403、又は図34のステップS508から図39のステップS600に進んだ場合、図41のようなプロジェクト詳細画面450の表示処理を行う。なお後述する図48のステップS730や、図54のステップS730から図39のステップS600に進む場合もある。つまりギャラリー画面400、ディスカバー画面410、或いは後述のマイページ画面600、マイページ画面640から、プロジェクト詳細画面450の表示に遷移することがある。
 プロジェクト詳細画面450では、選択されたプロジェクトについてのプロジェクトタイトル451や作者名452が表示される。
 またプロジェクト詳細画面450では画像表示部453において、そのプロジェクトを構成する1又は複数の画像(動画や静止画)が表示される。上述したように本開示でいうプロジェクトは、クリエイターが例えばテーマに沿ってコンテンツ(静止画や動画、或いは外部の動画サイトにおける特定の動画へのリンク等)を配置した画像集としての性質を持ち、画像表示部453の内容がプロジェクトの本体と言える。
 画像表示部453には、コンテンツとしての静止画、動画の代表画像、リンクに対応する画像などが、作成者が決めた順序で表示される。
 説明テキスト455には、プロジェクトについて作成者が入力した説明文などが表示される。
 タグ456として、プロジェクトに関連する内容や制作者が設定した内容のタグが表示される。
 機材情報部460では、このプロジェクトの画像の撮影に用いたカメラ21等の機器が表示される。
 作成者情報部461ではこのプロジェクトの作成者の情報が表示される。例えば作成者のアイコン、名前、拠点(国)、代表的なプロジェクトへのリンクなどを表示させる。
 またプロジェクト詳細画面450では編集ボタン454、ブックマークボタン457、いいねボタン458、通報ボタン459、フォローボタン462等が表示される。
 但しプロジェクト詳細画面450は、サインイン中のユーザが、自身が作成したプロジェクトのプロジェクト詳細画面450を閲覧する場合と、他のクリエイターが作成したプロジェクト詳細画面450を閲覧する場合がある。例えばマイページ画面600からの遷移では、自身のプロジェクトの詳細を閲覧し、マイページ画面640からの遷移では、他者のプロジェクトの詳細を閲覧することになる。ギャラリー画面400やディスカバー画面410からの遷移では、提示されているプロジェクトの選択によって自分又は他者のプロジェクトの詳細を閲覧することになる。
 そして自身が作成したプロジェクトのプロジェクト詳細画面450の表示と、他のクリエイターが作成したプロジェクトのプロジェクト詳細画面450では、表示内容に異なる点がある。
 例えば端末装置22は、編集ボタン454は、サインイン中のユーザが自分のプロジェクトのプロジェクト詳細画面450を閲覧するときのみ表示されるようにする。
 また端末装置22は、ブックマークボタン457、いいねボタン458、通報ボタン459、フォローボタン462は、他者のプロジェクトのプロジェクト詳細画面450を閲覧するときのみ表示されるようにする。
 なお、自分のプロジェクトのプロジェクト詳細画面450では、いいねボタン458に代えて、いいね数の表示をしてもよい。
 図41は説明上、これらを全て表示しているが、プロジェクトが自分のものか他者のものかにより、表示内容は変更される。
 端末装置22は、図39のステップS600で以上のようにプロジェクト詳細画面450の表示を行っている際は、ステップS601からステップS610等の操作監視を行う。
 自己のプロジェクトのプロジェクト詳細画面450を閲覧しているユーザによる編集ボタン454の操作を検知した場合、端末装置22は、図39のステップS601からプロジェクト編集の処理に進む。
 他者のプロジェクトのプロジェクト詳細画面450を閲覧しているユーザによるいいねボタン458の操作を検知した場合、端末装置22は、ステップS602からステップS616に進み、「いいね」の設定又は解除の処理を行う。そして端末装置22はステップS600に戻り、表示される「いいね」数を更新する。
 ユーザはいいねボタン458の操作で「いいね」を設定し、また再度のいいねボタン458の操作で「いいね」を取り消すことができる。
 他者のプロジェクトのプロジェクト詳細画面450を閲覧しているユーザによるブックマークボタン457の操作を検知した場合、端末装置22は、ステップS603からステップS611に進み、ブックマークの設定又は解除の処理を行う。そして端末装置22はステップS600に戻る。
 ユーザはブックマークボタン457の操作で、プロジェクトのブックマーク保存又はその解除を行うことができる。
 他者のプロジェクトのプロジェクト詳細画面450を閲覧しているユーザによるフォローボタン462の操作を検知した場合、端末装置22は、ステップS604からステップS612に進み、プロジェクトの作成者へのフォローの設定又は解除の処理を行う。そして端末装置22はステップS600に戻る。
 ユーザはフォローボタン462の操作で気になるクリエイターのフォローやその取り消しを行うことができる。
 ユーザによるタグ456の操作を検知した場合、端末装置22は、ステップS605からステップS613に進み、操作されたタグ456の内容でプロジェクト検索を行い、検索結果画面に遷移する。
 例えば端末装置22は、タグ456の情報をサーバシステム1に送信し、サーバシステム1からタグの情報を用いたプロジェクト検索結果を受信する。そしてその検索結果を表示させる。
 画像表示部453に表示されている画像についてユーザはクリック等の操作を行うことができる。端末装置22は、画像に対するクリック操作を検知した場合、ステップS606から図40のステップS620に進み、全画面モード表示の処理を行う。
 全画面モードによる画像のフル表示画面470の例を図42,図43に示す。
 図43は画像情報部478の表示を行っている状態、図42は画像情報部478の表示を行っていない状態である。
 フル表示画面470では、画像471を主として画面上で大きく表示させる。また情報ボタン472、ブックマークボタン476、閉じるボタン473、次画像ボタン474、前画像ボタン475、情報閉じボタン479等が表示される。
 なお画像471については、静止画である場合はそのまま表示させるが、動画である場合は、例えば再生/停止ボタン、進行バーなどを表示させ、ユーザが任意に動画再生を行うことができるようにする。
 端末装置22は図40のステップS620で画像のフル表示画面470の表示を実行させた状態で、ステップS621からステップS625の操作監視を行う。
 情報ボタン472は、画像に対する詳細情報の表示を行う操作子であり、情報閉じボタン479は詳細情報の表示を終了させる操作子である。
 情報ボタン472又は情報閉じボタン479の操作を検知した場合、端末装置22はステップS621からステップS630に進み、情報表示のオン/オフを行う。即ち図42の状態で情報ボタン472が操作されたら、端末装置22は図43のように画像情報部478に画像についての詳細情報を表示させる。また図43の状態で情報閉じボタン479又は情報ボタン472が操作されたら、端末装置22は画像情報部478の表示を終了させ、図42の状態に戻す。端末装置22は以上の処理の後、ステップS620に戻る。
 画像情報部478に表示させる詳細情報としては、例えば画像のファイル名、ファイルサイズ、レーティング情報、解像度、撮影したカメラ21の情報、焦点距離、F値、EV値、ISO値などが想定される。このような情報は、例えば閲覧しているユーザ(クリエイター)が他のクリエイターの撮影を参考にする際に好適となる。
 次画像ボタン474又は前画像ボタン475の操作を検知した場合は、端末操作は画像の送り操作としてステップS622からステップS631に進み、画像の送り処理を行う。即ち端末装置22は、次画像ボタン474の操作の場合はプロジェクト内の次の画像を表示させ、前画像ボタン475の操作の場合は、プロジェクト内の前の画像を表示させる。そして端末装置22はステップS620に戻る。
 なお次画像ボタン474又は前画像ボタン475の操作に限らず、例えば端末装置22としてスマートフォン等を想定した場合は、スワイプ操作などで、前画像や次画像が表示されるようにしてもよい。
 端末装置22は、画像471についてクリック或いは再生/停止等の操作を検知した場合はステップS623からステップS632に進み、対応処理を行い、ステップS620に戻る。
 例えばステップS632で端末装置22は、静止画に対するクリック等に応じて、拡大表示と全画面フィット表示を交互に切り替える処理を行う。なお拡大表示中(画面に収まってない場合)は、端末装置22は、画像471に対するドラッグ操作により表示位置を変更させる処理も行う。
 また端末装置22は、動画に対する再生操作に応じて、再生を開始させる処理や、停止操作に応じて再生を停止させる処理、或いは進行バーの位置指定などにより、再生位置を変更させる処理なども行う。
 なお端末装置22は、静止画や動画に対しての所定操作に応じて、画像の解像度を切り替える処理を行う場合もある。
 端末装置22は、ブックマークボタン476の操作を検知した場合はステップS624からステップS633に進み、表示中の画像についてのブックマークの設定又は解除の処理を行い、ステップS620に戻る。
 ユーザはブックマークボタン476の操作で、プロジェクト内の個々の画像についてのブックマーク保存又はその解除を行うことができる。
 なお、プロジェクト詳細画面450と同様、サインイン中のユーザ自身が投稿したプロジェクトにおける画像の表示の場合は、ブックマークボタン476は非表示とする。
 端末装置22は、閉じるボタン473の操作を検知した場合はステップS625から図39のステップS600に戻り、プロジェクト詳細画面450の表示に戻す。
 端末装置22は、プロジェクト詳細画面450において機材情報部460に表示されている機器に対するクリック等の操作を検知した場合、図39のステップS607からステップS614に進み、その機器をフィルタ条件として検索を行う。例えば端末装置22は、指定された機器の情報をサーバシステム1に送信する。これに応じてサーバ装置10がストレージ11に記憶されているプロジェクト、画像、クリエイターについて機器の情報をキーにして検索を行う。そして検索の結果情報を端末装置22に送信する。端末装置22はサーバシステム1による検索結果の情報を受信し、検索結果画面として表示させることになる。
 例えば指定された機器を使用した画像、指定された機器を使用した画像を含むプロジェクト、或いは指定された機器を自分の機材として登録しているクリエイターなどが、検索結果画面として表示されるようにする。
 これにより閲覧者はカメラ21の機種等に応じた作品や使用者を閲覧でき、クリエイターにとって有益な情報提示となる。
 端末装置22は、プロジェクト詳細画面450において作成者情報部461に表示されている作成者のアイコン等に対するクリック等の操作を検知した場合、図39のステップS608から後述のマイページ画面600の処理又はマイページ画面640の処理に進む。
 他者のプロジェクトのプロジェクト詳細画面450を閲覧しているユーザによる通報ボタン459の操作を検知した場合、端末装置22は、ステップS609からステップS615に進み、通報処理を行う。例えば端末装置22は、通報画面に遷移させ、通報可能とする。なお、通報したユーザからは通報したプロジェクトは非表示にすることが考えられる。
 端末装置22は、プロジェクト詳細画面450において戻るボタン51の操作を検知した場合、図39のステップS610から前の画面の処理に戻る。
 例えばギャラリー画面400からプロジェクト詳細画面450に遷移してきた場合はギャラリー画面400に戻す。ディスカバー画面410からプロジェクト詳細画面450に遷移してきた場合はディスカバー画面410に戻す。後述のマイページ画面600、マイページ画面640から遷移してきた場合はそれらの画面に戻す。
 なお、図示していないがプロジェクト詳細画面450において、そのプロジェクトについての販売情報として、図33に示したような販売中アイコン407や販売終了アイコン408等が表示されるようにしてもよい。
 また図42,図43のフル表示画面470において情報ボタン472やブックマークボタン476を表示させる例を挙げたが、プロジェクト詳細画面450における各画像に対して情報ボタン472やブックマークボタン476を表示させ、操作に応じて詳細情報の表示やブックマーク処理を行うようにしてもよい。
 [3-10:プロジェクト作成画面の処理]
 プロジェクト作成画面480の処理を図44で説明する。
 端末装置22は図32のステップS404、又は図34のステップS509から図44のステップS650に進んだ場合、図45のようなプロジェクト作成画面480の表示処理を行う。つまりギャラリー画面400やディスカバー画面410からプロジェクト作成画面480の表示に遷移する。
 そして端末装置22はプロジェクト作成画面480の表示処理を行った状態で図44のステップS651からステップS655の操作監視を行う。
 プロジェクト作成画面480では、新規のプロジェクトに組み込むコンテンツ(画像やリンク)を特定するための3つのルートとしてファイルアップロード部481、クラウドファイル選択部482、リンク入力部483が用意される。
 ファイルアップロード部481は端末装置22のローカルストレージから画像ファイルを選択する領域である。ユーザは端末装置22内の記憶部に記憶された画像ファイル(静止画・動画)をドラッグしてきて、ファイルアップロード部481にドロップすることができる。
 ドロップ操作を検知した場合、端末装置22はステップS651からステップS661に進み、そのドロップされた画像ファイルを、プロジェクト用コンテンツとして選択し、後述のプロジェクト編集画面500へ遷移させる処理を行う。
 またファイルアップロード部481には選択ボタン484が用意される。選択ボタン484の操作を検知した場合、端末装置22はステップS652からステップS662に進み、画像ファイルの選択画面を表示させる。
 選択画面では、1又は複数の画像ファイル(静止画・動画)を選択することができるようにする。またキャンセル操作が可能とされる。
 ユーザがキャンセル操作を行った場合は、端末装置22はステップS665からステップS650に戻る。
 ユーザが1又は複数の画像ファイルの選択操作を行った場合は、端末装置22はステップS663からステップS664に進み、その選択された1又は複数の画像ファイルを、プロジェクト用コンテンツとして選択し、後述のプロジェクト編集画面500へ遷移させる処理を行う。
 クラウドファイル選択部482はストレージ11に記憶された画像ファイルを選択するための領域である。クラウドファイル選択部482には選択ボタン485が用意される。選択ボタン485の操作を検知した場合、端末装置22はステップS653からステップS670に進み、サーバシステム1と通信を行い、ユーザが過去にサーバシステム1にアップロードした画像ファイルの選択画面を表示させる。
 この選択画面でも、1又は複数の画像ファイル(静止画・動画)を選択することができるようにする。またキャンセル操作が可能とされる。
 ユーザがキャンセル操作を行った場合は、端末装置22はステップS673からステップS650に戻る。
 ユーザが1又は複数の画像ファイルの選択操作を行った場合は、端末装置22はステップS671からステップS672に進み、その選択された1又は複数の画像ファイルを、プロジェクト用コンテンツとして選択し、後述のプロジェクト編集画面500へ遷移させる処理を行う。
 リンク入力部483は外部の動画サイト等のリンクを入力する領域であり、URL(Uniform Resource Locator)入力部486とOKボタン487が表示される。
 ユーザがURL入力部486でリンク(URL)を入力し、OKボタン487を操作すると、端末装置22はステップS654からステップS675に進み、そのリンクをプロジェクト用コンテンツとして選択し、後述のプロジェクト編集画面500へ遷移させる処理を行う。
 端末装置22は、プロジェクト作成画面480において戻るボタン51の操作を検知した場合、図44のステップS655から前の画面の処理に戻る。
 例えばギャラリー画面400からプロジェクト作成画面480に遷移してきた場合はギャラリー画面400に戻す。ディスカバー画面410からプロジェクト作成画面480に遷移してきた場合はディスカバー画面410に戻す。
 [3-11:プロジェクト編集画面の処理]
 プロジェクト編集画面500の処理を図46で説明する。
 端末装置22は図39のステップS601、又は図44のステップS661、S664,S672,S675から図46のステップS680に進んだ場合、図47のようなプロジェクト編集画面500の表示処理を行う。つまりプロジェクト詳細画面450やプロジェクト作成画面480からプロジェクト編集画面500の表示に遷移する。
 そして端末装置22はプロジェクト編集画面500の表示処理を行った状態で図46のステップS681からステップS692の操作監視を行う。
 プロジェクト編集画面500ではコンテンツ確認エリア501において、現在プロジェクトに含まれているコンテンツ(動画、静止画、リンク)の画像が表示される。
 コンテンツ確認エリア501には、進むボタン502、戻るボタン503、コンテンツ一覧504、ファイル追加ボタン505,506、リンク追加ボタン507、削除ボタン508、拡大画像509が表示される。
 コンテンツ一覧504においては、プロジェクトに含まれているコンテンツのサムネイル画像が並べて表示されるとともに、これらのうちの1つが拡大画像509として表示される。進むボタン502、戻るボタン503により拡大画像509をコンテンツ一覧504における前後の画像に切り替えていくことができる。
 このコンテンツ確認エリア501に対する操作を検知した場合、端末装置22は図46のステップS681からステップS700に進み、操作に応じた処理を行ってステップS680に戻る。この場合のステップS700の処理は以下のようになる。
 拡大画像509及びコンテンツ一覧504の各サムネイル画像に対しては削除ボタン508が表示されている。削除ボタン508が操作された場合は、端末装置22は、そのコンテンツをプロジェクトから除外する処理を行う。
 進むボタン502又は戻るボタン503が操作された場合は、端末装置22は、拡大画像509を前後に切り替えていく処理を行う。
 またコンテンツ一覧504におけるサムネイル画像をクリックする操作に応じて、端末装置22は、そのコンテンツの画像を拡大画像509として表示させる。
 コンテンツ一覧504におけるサムネイル画像のドラッグ操作などに応じて、端末装置22は、プロジェクト内でのコンテンツの順序を変更させる処理を行う。
 ファイル追加ボタン505,506、リンク追加ボタン507は、図45のプロジェクト作成画面480と同様の操作で画像ファイルやリンクをプロジェクトに追加するための操作子である。
 ファイル追加ボタン505の操作に応じて端末装置22は、ローカルストレージの画像ファイルの選択画面を表示させ、ユーザの選択操作に応じて、選択された1又は複数の画像ファイルをプロジェクトに追加する処理を行う。
 ファイル追加ボタン506の操作に応じて端末装置22は、ストレージ11にアップロードした画像ファイルの選択画面を表示させ、ユーザの選択操作に応じて、選択された1又は複数の画像ファイルをプロジェクトに追加する処理を行う。
 リンク追加ボタン507の操作に応じて端末装置22は、リンク入力画面を表示させ、ユーザの操作により入力されたリンクをプロジェクトに追加する処理を行う。
 これら追加されたコンテンツはコンテンツ一覧504にサムネイルにより表示される。
 このように、コンテンツ確認エリア501に対する操作により、ユーザは、プロジェクトに含めるコンテンツの確認、追加、削除、順序の変更等を行うことができる。
 プロジェクト編集画面500ではタイトル入力部510が設けられ、テキスト入力が可能とされる。タイトル入力部510へのテキスト入力を検知した場合、端末装置22はステップS682からステップS701に進み、入力されたテキストをプロジェクトのタイトルとして保存する処理を行う。そしてステップS680に戻る。
 プロジェクト編集画面500では説明テキスト入力部511が設けられ、テキスト入力が可能とされる。説明テキスト入力部511へのテキスト入力を検知した場合、端末装置22はステップS683からステップS702に進み、入力されたテキストをプロジェクトの説明文として保存する処理を行う。そしてステップS680に戻る。
 プロジェクト編集画面500ではカバー画像選択部512が設けられる。カバー画像選択部512ではアップロードボタン513、戻るボタン514、進むボタン515、コンテンツ一覧516が表示される。コンテンツ一覧516にはプロジェクトに含まれる画像が表示される。このコンテンツ一覧516に表示される画像は戻るボタン514、進むボタン515で順次送っていくことができ、1つを選択状態とすることができる。アップロードボタン513により、選択されている画像がカバー画像として設定される。
 端末装置22はカバー画像選択部512に対する操作を検知したら、ステップS684からステップS703に進み、カバー画像に関する処理を行ってステップS680に戻る。即ちステップS703では端末装置22は、戻るボタン514、進むボタン515に応じた画像の送り、アップロードボタン513の操作に応じたカバー画像の設定処理などを行う。
 なおカバー画像とする画像についてトリミング等を行うことができるようにしてもよい。
 プロジェクト編集画面500ではEXIF情報選択部520が設けられ、「表示する」「表示しない」が選択可能とされる。EXIF情報選択部520の操作を検知した場合、端末装置22はステップS685からステップS704に進み、EXIF情報の表示設定を行ってステップS680に戻る。
 プロジェクト編集画面500ではピン留め設定部521が設けられ、プロジェクトをマイページ画面600の所定位置に表示させる(ピン留めする)か否かを設定できる。ピン留め設定部521の操作を検知した場合、端末装置22はステップS686からステップS705に進み、ピン留め設定のオン/オフの処理を行ってステップS680に戻る。
 プロジェクト編集画面500では機器設定部530が設けられ、カメラ21やレンズ鏡筒などが表示される。機器設定部530に対する操作を検知した場合、端末装置22はステップS687からステップS706に進み、操作に応じて機器の表示/非表示、追加、削除等の処理を行ってステップS680に戻る。
 ユーザはこれによりプロジェクト詳細画面450の機材情報部460に表示させる機器を設定できる。
 プロジェクト編集画面500ではジャンル設定部540が設けられ、ユーザが1又は複数のジャンルにチェックできる。ジャンル設定部540に対する操作を検知した場合、端末装置22はステップS688からステップS707に進み、操作に応じてプロジェクトのジャンルの設定を行う。そしてステップS680に戻る。
 ユーザはこれによりプロジェクトがどのようなジャンルの内容であるかを任意に設定できる。
 プロジェクト編集画面500ではタグ入力部541が設けられ、ユーザが1又は複数のタグを入力できる。タグは例えばフリーテキストで追加できるようにし、カンマかエンター操作で改行すると入力されたテキストがタグ化される。またタグに対して削除ボタンが表示され、削除できるようにする。
 タグ入力部541に対する操作を検知した場合、端末装置22はステップS689からステップS708に進み、操作に応じてプロジェクトに付加するタグ設定や削除の処理を行い、ステップS680に戻る。ユーザはこれによりプロジェクト詳細画面450にタグ456として表示させる文字列を設定できる。
 プロジェクト編集画面500では削除ボタン542や投稿ボタン543が設けられる。削除ボタン542の操作を検知した場合、端末装置22はステップS690からステップS709に進み、編集中のプロジェクトを削除する処理を行う。新規作成中であれば、そのままプロジェクトのデータを破棄する。編集中であれば、プロジェクトの削除をサーバシステム1に要求する。
 このようにプロジェクトの削除を行った場合、端末装置22は例えばギャラリー画面400等に戻ることが考えられる。
 投稿ボタン543の操作を検知した場合、端末装置22はステップS691からステップS710に進み、編集中のプロジェクトのデータをサーバシステム1にアップロードする処理を行う。つまりプロジェクトの内容を更新する。そして当該プロジェクトのプロジェクト詳細画面450に移行させる。
 端末装置22は、プロジェクト編集画面500において戻るボタン51の操作を検知した場合、図46のステップS692から前の画面の処理に戻る。
 例えばプロジェクト詳細画面450やプロジェクト作成画面480に戻す。
 以上のプロジェクト編集画面500についての処理により、ユーザは自分のプロジェクトについて各種の編集を行うことができる。
 なお、プロジェクトの背景色を選択できるようにするなど、例示した以外にも各種の編集項目が想定される。
 [3-12:マイページの処理]
 続いてマイページの処理を説明する。なおマイページの処理としては、サインインしているユーザが自分のページを閲覧する場合のマイページ画面600の処理と、他のクリエイターのページを閲覧する場合のマイページ画面640の処理がある。まずユーザ自身のマイページ画面600の処理を説明する。
 端末装置22は図32のステップS405によりギャラリー画面400から、或いはディスカバー画面410やプロジェクト詳細画面450などのユーザアイコン54の操作等に応じて、図48のステップS720に進む。このステップS720で端末装置22は、図49のようなマイページ画面600を表示させる。
 そしてステップS721からステップS730等の操作監視の処理を行う。
 マイページ画面600に表示させる情報は、ストレージ11に記憶されたユーザ情報や画像情報、機器情報から取得することになる。サーバ装置10は、これらのストレージ11に記憶された情報に基づいてマイページ画面600を端末装置22に提供する。
 マイページ画面600には、ヘッダー画像610としてユーザが選択した画像が表示される。
 またマイページ画面600には、ギャラリーボタン605、ディスカバーボタン606、アーティクルボタン607が設けられる。図48では省略したが、これらの操作に応じて端末装置22は、ギャラリー画面400、ディスカバー画面410、アーティクル画面430に遷移させる。
 マイページ画面600には、プロジェクトタブ601、ブックマークタブ602、分析タブ603が設けられる。
 例えば初期的にはプロジェクトタブ601が選択されており、その場合は図49のようにメインエリア630において、このユーザのプロジェクトの表示が行われる。
 ブックマークタブ602が選択された場合、端末装置22は図48のステップS721からステップS740に進み、図50のようにメインエリア630において、このユーザがブックマーク設定した他者のプロジェクトやコンテンツの表示が行われる。
 分析タブ603が選択された場合、端末装置22は図48のステップS722からステップS741に進み、図51のようにメインエリア630において、このユーザについての分析情報の表示が行われる。
 図50又は図51の状態からプロジェクトタブ601が選択された場合、端末装置22は図48のステップS723からステップS742に進み、図49のようにメインエリア630において、このユーザのプロジェクトの表示に戻す。
 図49のようなプロジェクトタブ601においては、メインエリア630において、閲覧しているユーザ自身が投稿したプロジェクト一覧を、例えばプロジェクトの投稿日時の新しい順に表示させる。但し、ピン止め設定されたプロジェクトは最初に表示させる。
 図50のようなブックマークタブ602においては、例えば並び順はブックマークした日時の新しい順などとして、プロジェクトやコンテンツが表示される。プロジェクトとコンテンツは表示態様を変えてもよいし、異なるエリアで表示させても良い。
 コンテンツからプロジェクトへの導線や、プロジェクトからコンテンツへの導線を設定してもよい。
 図51のような分析タブ603においては、例えばユーザについての投稿数、フォロワー数、アクセス数、画像毎の閲覧数、自分のプロフィールの閲覧数等を、例えばウイークリー表示などとして分析したものを表示させる。
 マイページ画面600では、アバター画像611、名前612、職業613、活動拠点614、フォロー情報615、自己紹介テキスト616、リンク617、ジャンル618、機器部619が表示される。
 アバター画像611、名前612、職業613、活動拠点614としてユーザのプロフィールが表示されるとともに、フォロー情報615で当該ユーザのフォロー数、フォロワー数が示される。また自己紹介テキスト616によりユーザが入力した自己紹介文が表示される。
 リンク617として、当該ユーザの外部サイトでのブログ、動画などへのリンクが表示される。
 活動拠点614は検索ボタンともなっており、活動拠点614の操作を検知した場合、端末装置22はステップS724からステップS743に進み、その活動拠点をキーとした検索を行って検索結果画面に遷移する。
 例えば端末装置22は、活動拠点614で示される国、地域、都市名などの情報をサーバシステム1に送信し、サーバシステム1にそれらの情報を用いたプロジェクト検索やクリエイター検索を実行させ、結果を受信する。そしてその検索結果を表示させる。
 リンク617の操作を検知した場合、端末装置22はステップS725からステップS744に進み、そのリンク先のウェブサイトへ遷移させる。
 ジャンル618は検索ボタンともなっており、ジャンル618の操作を検知した場合、端末装置22はステップS726からステップS745に進み、そのジャンルをキーとした検索を行って検索結果画面に遷移する。
 例えば端末装置22は、ジャンルの情報をサーバシステム1に送信し、サーバシステム1にその情報を用いたプロジェクト検索やクリエイター検索を実行させ、結果を受信する。そしてその検索結果を表示させる。
 機器部619にはポータルサービス30において登録されたユーザのカメラ21やレンズ鏡筒等の機器が表示される。なお登録された機器情報(図7参照)については、ユーザが公開/非公開の設定が可能であり、この機器部619では、公開設定したものだけが表示される。
 表示される機器は検索ボタンともなっており、機器部619内に表示される機器に対する操作を検知した場合、端末装置22はステップS727からステップS746に進み、その機器をキーとした検索を行って検索結果画面に遷移する。
 例えば端末装置22は、機器情報をキーとする検索要求をサーバシステム1に送信し、サーバシステム1にプロジェクト検索やクリエイター検索を実行させ、結果を受信する。そしてその検索結果を表示させる。
 マイページ画面600では編集ボタン620が表示される。編集ボタン620の操作を検知した場合、端末装置22はステップS728からプロフィール編集の処理に遷移する。
 プロフィール編集の処理として端末装置22は図52のステップS760に進み、図53のようなプロフィール編集画面650を表示させる。
 プロフィール編集画面650にはプロフィール項目入力部651、機器設定部652、更新ボタン653が設けられる。
 プロフィール項目入力部651として、アイコン画像、ヘッダー画像、エレメント色、背景色、名前、職種、活動拠点(国)、リンク、自己紹介テキスト、撮影ジャンル等が入力/更新可能とされている。つまりマイページ画面600で表示させる項目である。いくつかの項目についてはプルダウンメニューが表示されるようにしてもよい。
 これらのプロフィール項目入力部651に対する操作に応じて端末装置22は、図52のステップS761からステップS765に進み、入力された内容を記憶してステップS760に戻る。
 機器設定部652には、ユーザに関連して登録された機器情報によるカメラ21やレンズ鏡筒等が表示され、これらについてマイページ画面600で表示させるか否かを選択できる。つまり図7の機器情報に基づいて機器が表示され、それらの設定を変更できる。なお機器設定部652に対する操作で、登録機器を追加したり削除したりすることができるようにしてもよい。
 機器設定部652対する操作に応じて端末装置22は、ステップS762からステップS766に進み、入力された内容による設定を記憶してステップS760に戻る。設定としては各機器についての表示/非表示などである。
 更新ボタン653の操作に応じて端末装置22は、ステップS763からステップS767に進み、その時点でプロフィール編集画面650に入力されている情報を、更新情報としてサーバシステム1にアップロードする。サーバシステム1ではプロフィール編集画面650に入力されている情報をユーザ情報として更新する。
 これによりマイページ画面600のプロフィール内容や表示される機器の情報が更新される。そして端末装置22は、図48のステップS720に戻る。この場合、更新された新たなマイページ画面600が表示される。
 プロフィール編集画面650でユーザが戻るボタン51を操作した場合は、端末装置22はステップS764から図48のステップS720に戻る。この場合は、更新は行われない。
 マイページ画面600において図49のプロジェクトタブ601や図50のブックマークタブ602ではプロジェクトやコンテンツが表示されるが、プロジェクト等へマウスカーソルをホバーさせることで、情報表示が行われる。
 端末装置22は、ホバーを検知したら図48のステップS729からステップS747に進み、そのプロジェクト等の情報を表示させる処理を行ってステップS720に戻る。例えば端末装置22は、プロジェクトのタイトル、いいね数、コメント数などを表示させる。
 またプロジェクトへクリック等の操作を検知した場合は、端末装置22はステップS730からプロジェクト詳細画面450の処理に遷移する(図39参照)。
 次に他者のマイページ画面640の処理を説明する。
 端末装置22は図32のステップS406、図34のステップS511等から図54のステップS770に進み、マイページ画面640を表示させる場合がある。
 この場合、図55のようなマイページ画面640を表示させた状態でステップS771からステップS730等の操作監視の処理を行う。なお図48と同一の処理については同一のステップ番号を付している。
 図55の他者のマイページ画面640において、自分のマイページ画面600と異なるのは次の点である。
 他者のマイページ画面640では、タブはプロジェクトタブ601のみとなる。
 他者のマイページ画面640では、フォローボタン621、通報ボタン622が設けられる。
 また他者のマイページ画面640では、マイページ画面600に示した編集ボタン620は設けられない。
 マイページ画面640においてフォローボタン621の操作を検知した場合、端末装置22は図54のステップS771からステップS775に進み、そのマイページ画面640のブックマークの設定又は解除の処理を行う。これによりユーザは気になるクリエイターのマイページ画面640のブックマーク設定ができる。
 通報ボタン622の操作を検知した場合、端末装置22は、ステップS772からステップS776に進み、通報処理を行う。例えば端末装置22は、通報画面に遷移させ、通報可能とする。なお、通報したユーザからは通報したマイページ画面640のクリエイターを非表示にすることが考えられる。通報を行った場合は、端末装置22は例えば図32のステップS400に遷移することが考えられる。
 図54において、端末装置22によるステップS724からステップS730の操作検知に応じた処理は、図48と同様であるため、重複説明を避ける。
 なおプロジェクトに対するホバーに応じたステップS747の処理では、端末装置22は、そのプロジェクトについての販売情報(販売中アイコン407や販売終了アイコン408など)を表示させるようにしてもよい。
<4.まとめ及び変形例>
 以上の実施の形態によれば次のような効果が得られる。
 実施の形態の端末装置22としての情報処理装置70は、それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理するストレージ11から、所定の情報を取得するとともに、複数のサービスのそれぞれによる所定の情報を用いた情報提示を実行させる制御部(サービス対応制御部71a)を備える。例えばユーザが使用する端末装置22では、ポータルサービス30、ネットワークサービス31、マーケットプレイス32、コンテンツ制作ツール33などの複数のサービスの画面をユーザに提示する処理が行われる。この複数のサービスでの情報提示に用いる所定の情報は、例えばサーバ装置10が管理するストレージ11から取得する。
 また実施の形態のサーバ装置10としての情報処理装置70も同様の制御部(サービス対応制御部71a)を備えるといえる。例えばサーバ装置10は、複数のサービスの画面をユーザ側の端末装置22に提供(送信)して提示させる。この複数のサービスでの情報提示に用いる所定の情報はストレージ11から取得する。
 これらの構成により本実施の形態の端末装置22やサーバ装置10として機能する情報処理装置70は、複数のサービス間の各種の機能においてストレージ11に記憶した所定の情報を活用することができる。従って各種のサービスの多様な機能のための情報管理や情報提供の効率化を促進することができる。
 実施の形態では、複数のサービスは、それぞれがカメラ21と関連する機能を備えたサービスであり、ストレージ11に記憶される所定の情報として、ユーザ毎に登録されたカメラ21や関連機器の機器情報を例に挙げた。
 カメラ21に関連する複数のサービスにおいて用いる情報として、ストレージ11では、カメラ21や関連する機器としてのレンズ鏡筒や他の周辺機器の情報(機器情報)をユーザ毎に記憶する(図7参照)。これによりサインインしたユーザについての機器情報を共通化して各種サービスにおいて、ユーザ個々のカメラ21等に関する情報提示などを行うことができるようになる。
 実施の形態では、ストレージ11に記憶される所定の情報として、ユーザに関連づけられて登録された画像情報を例に挙げた。
 ユーザがカメラ21により撮影してアップロードした静止画や動画の画像データがストレージ11に記憶される(図7参照)。このような画像情報が、そのユーザに関連して複数のサービス間で使用される。例えばネットワークサービス31での表示やプロジェクト作成、ポータルサービス30のホーム画面200での表示、マーケットプレイス32での販売コンテンツなどとして使用される。このようにユーザがアップロードした画像データは、各種サービスにまたがって有効に使用できるものとされる。従ってサービス毎に逐次画像データをアップロードするという必要もなくなる。
 また画像情報であるプロジェクトも、ネットワークサービス31だけでなく、マーケットプレイス32やコンテンツ制作ツール33などで利用される。
 実施の形態では、ストレージ11に記憶される所定の情報として、ユーザ個人に関連づけられて登録されたユーザ情報を例に挙げた。
 ユーザが例えばプロフィール編集画面650により入力した自分の情報がユーザ情報としてストレージ11に記憶される(図7参照)。これによりポータルサービス30、ネットワークサービス31、マーケットプレイス32などにおける各種の機能でユーザ情報を使用して、ユーザ(閲覧者、プロジェクトの作者、販売者など)についての的確な情報提示を行うことができる。もちろんサービス毎にユーザ情報の入力を求める必要もなくなる。
 実施の形態のポータルサービス30は、通信接続されたカメラ21の初期設定を行う機能を有するものとした。そして端末装置22は、ポータルサービス30において初期設定画面を提示し、入力に応じて初期設定情報を通信接続されたカメラ21に転送する処理を行うものとした。
 例えば初期設定画面として、図13,図14のカメラセットアップ画面120、日時/表示設定画面130、機器名称設定画面140などを表示させ、入力に応じてカメラ21の初期設定を実行できるようにする(図11参照)。これによりユーザは、カメラ21の操作子ではなく、端末装置22の操作でカメラ21の初期設定が可能となる。ユーザにとってはカメラ21の初期設定のための操作が容易となる。
 なお端末装置22が、カメラ21の周辺機器について、初期設定のための処理を行うようにしてもよい。
 実施の形態のポータルサービス30は、通信接続されたカメラ21のプログラムのアップデートを行う機能を有するものとした。そして端末装置22は、アップデートの要否判定処理、アップデートプログラムのダウンロード処理、又は通信接続された撮像装置へのアップデートプログラムの転送処理を行うものとした。
 例えば図26のアップデート通知画面300による通知や、本体ソフトウェアのダウンロード、さらには転送操作に応じたカメラ21への本体ソフトウェアの転送などを行う(図18のステップS260からステップS266参照)。
 これによりユーザは、端末装置22により所有するカメラ21のアップデートについて知ったり実行させたりすることができ、利便性が向上される。
 なお、端末装置22はカメラ21の本体ソフトウェアのアップデートの要否判定処理のみを行うものでもよいし、或いはアップデートプログラムのダウンロードと転送処理のみを行うものとしてもよい。
 また端末装置22が、カメラ21の周辺機器について、これらのアップデートに関する処理を行うようにしてもよい。
 実施の形態のポータルサービス30は、通信接続されたカメラ21の診断処理機能を有し、端末装置22やサーバ装置10は、診断対象のカメラ21の情報の送信処理、カメラ21の情報に基づく診断処理、又は診断結果の受信及び提示処理のいずれかを行うものとした。
 図19の例のように、例えば端末装置22からサーバ装置10にカメラ21の情報を送信し、サーバ装置10が診断処理を行う。端末装置22はサーバ装置10から診断結果を受信し提示する。これによりユーザは所有するカメラ21について診断結果を確認でき、必要に応じて適切な対処が可能となる。カメラ21を用いるユーザにとって極めて有用な機能がポータルサービス30により提供されるものとなる。
 実施の形態のポータルサービス30は、通信接続されたカメラ21の撮影をリモート操作する機能を有し、端末装置22は、通信接続されたカメラ21についての登録された情報に基づいた操作画像の表示処理を行うものとした。
 例えば端末装置22は、図17のステップS230からステップS233の処理として、カメラ21のカメラ情報に応じて実行可能な機能の判定に応じた操作子を示す画像(リモート操作画面260)を表示させる。
 これにより操作したいカメラ21、つまり通信接続中のカメラ21に適応したリモート操作画面260をユーザに提供することができ、ユーザの操作性を向上させることができる。
 実施の形態のポータルサービス30は、複数のサービスに関連する通知を提示する機能を有し、端末装置22は、複数のサービスに関連する通知をまとめて提示する処理を行うものとした。
 例えば端末装置22では、図10のステップS130の処理で、図16のお知らせ画面210により、複数のサービスで関連する通知をまとめて提示する。例えばネットワークサービス31における「いいね」等の通知やマーケットプレイス32での販売に関する通知などである。これによりユーザは、複数のサービスについての通知をまとめて確認でき、使用性が向上する。
 実施の形態では、ポータルサービス30は、ユーザ個人のカメラ21や関連機器を管理する機能を有し、端末装置22は、ユーザ個人に対して登録されたカメラ21や関連機器を一覧提示する処理を行う例を挙げた。
 例えば端末装置22では、図17のステップS210からステップS212の処理で、図21の所有機器リスト画面240により、登録されたカメラ21等を一覧提示する。これによりユーザが所有しているカメラ21等の登録状態を確認できる。また編集、追加、削除などにより登録情報を更新することで、ユーザの意に沿った機材の登録を実現できる。特に複数のサービス間で使用できる情報としてのカメラ情報の登録メンテナンスに有効である。
 実施の形態では、ポータルサービス30は、ユーザ個人のカメラ21や関連機器を管理する機能を有し、端末装置22は、通信接続中のカメラ21又は関連機器の情報を追加登録する処理を行う例を挙げた。
 例えば端末装置22では、図18のステップS250からステップS254の処理で、ペアリング中のカメラ21の機器情報を追加するようにする。これによりユーザは容易に機器情報を登録できるようになる。
 実施の形態では、ネットワークサービス31は、ユーザに画像コンテンツを含むプロジェクトを作成させる機能を有するものとした。また端末装置22としては、ユーザに関連してストレージ11に記憶された画像情報に含まれる画像データを選択させる処理と、選択された画像データをプロジェクトに組み込む処理とを行う例を挙げた。
 例えば端末装置22では、図44の処理(特にステップS670からS673)で、図45のプロジェクト作成画面480を用いてユーザにアップロードした画像を選択させ、選択された画像を投稿用コンテンツ、即ちプロジェクトに含むコンテンツとする処理を行っている。これによりユーザは、ポータルサービス30の機能でアップロードした画像をネットワークサービス31におけるプロジェクト作成にも使用でき、アップロード画像を有効利用できるようになる。
 実施の形態のネットワークサービス31に関して端末装置22が、使用したカメラ21や関連機器の情報をプロジェクトに関連づける処理を行う例を挙げた。
 例えば端末装置22では、図46のステップS706で、ユーザの使用機器に関する入力に応じて、カメラ21やレンズ鏡筒をプロジェクトに関連づけるようにしている。これによりプロジェクトの閲覧時に使用機器も表示することができ、ユーザが閲覧するプロジェクトの内容を充実させることができる。
 実施の形態のネットワークサービス31に関して端末装置22が、ユーザ毎にプロジェクトを一覧表示させる処理、及び個々のプロジェクトの詳細を表示させる処理を行う例を挙げた。
 例えば端末装置22では、図33のギャラリー画面400、図35のディスカバー画面410、図49のマイページ画面600、図55のマイページ画面640などで、プロジェクトを一覧表示させる。これにより閲覧者は自分や他人のプロジェクト、お勧めのプロジェクトなどを容易に確認できる。
 また端末装置22は図41のプロジェクト詳細画面450により、個々のプロジェクトの詳細を表示させる。これによりユーザは気になったプロジェクトの詳細を確認できる。
 実施の形態のネットワークサービス31に関して端末装置22が、個々のプロジェクトについて販売情報を付加して表示させる処理を行う例を挙げた。
 例えばプロジェクトについて販売中アイコン407、販売終了アイコン408などにより、マーケットプレイス32での販売中、販売終了などが明示されるようにする。これにより閲覧したユーザは販売状況を容易に知ることができる。ユーザにとってマーケットプレイス32の閲覧の判断にも役立つ。
 実施の形態のネットワークサービス31に関して端末装置22が、ユーザ個人ページにおいてユーザ個人に関連づけられてストレージ11に記憶されたカメラ21や関連機器の情報を表示させる処理を行う例を挙げた。
 例えば端末装置22では、図49のマイページ画面600、図55のマイページ画面640などとして、ユーザ個人ページを表示させる。これらのユーザ個人ページには、そのユーザについて登録されたカメラ21やレンズ鏡筒の情報が表示される。これによりユーザ個人ページを閲覧することで、そのユーザの使用機材がわかる。これにより他のクリエイターに対してプロジェクト制作などの参考になる情報を提供できる。
 実施の形態のマーケットプレイス32は、商品を販売する販売ページを表示させる機能を有するサービスとし、端末装置22が所定の情報に応じて選択された商品を表示させる処理を行う例を挙げた。
 例えば端末装置22では、図28のストア画面340において、閲覧しているユーザ(サインインしているユーザ)の機器情報に応じた商品(アプリケーションソフトウェアやライセンス)を表示させる。また閲覧しているユーザがブックマーク等を付したプロジェクトを商品として表示させてもよい。閲覧しているユーザのユーザ情報におけるジャンル等の情報に応じて選択したプロジェクト等を商品として表示させてもよい。
 このようにサインインしたユーザのカメラ情報やユーザ情報、或いはサインインしたユーザが注目している他者のプロジェクト等を商品として紹介することで、複数のサービスの連携のうえで、ユーザにとって好適な商品が表示されるマーケットプレイス32を形成できる。
 実施の形態のサーバシステム1は、それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理するストレージ11と、ストレージ11から、所定の情報を取得するとともに、複数のサービスのそれぞれによる所定の情報を用いた情報提示を実行させるサーバ装置10を備える。これにより本実施の形態のサーバ装置10として機能する情報処理装置70が実現される。
 なお実施の形態で端末装置22の処理として説明してきた各処理は、サーバ装置10の処理とも読み替えることができる。即ちサーバ装置10は、端末装置22によるアプリケーションプログラム又はウェブブラウジングにより、各サービスの画面を端末装置22に提供し、表示させるとともに、画面によるユーザインタフェースを介して要求される機能を実行させる。その意味で、図9、図10、図11、図17、図18、図19、図27、図29、図32、図34、図37、図39、図40、図44、図46、図48、図52、図54の各処理は、端末装置22に表示や所定の機能の処理を実行させるサーバ装置10の処理として理解することができる。
 実施の形態のプログラムは、端末装置22やサーバ装置10の処理を実行させるプログラムである。例えば図9、図10、図11、図17、図18、図19、図27、図29、図32、図34、図37、図39、図40、図44、図46、図48、図52、図54のような処理を、例えばCPU、DSP等の情報処理装置、或いはこれらを含むデバイスに実行させるプログラムである。
 即ち実施の形態のプログラムは、それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージから、所定の情報を取得する処理と、複数のサービスのそれぞれによる所定の情報を用いた情報提示を実行させる制御処理と、を情報処理装置に実行させるプログラムである。
 このようなプログラムにより、ポータルサービス30、ネットワークサービス31等の複数のサービスによる画面表示やカメラ21との連携を含む機能の実行、ストレージ11の共通化による情報の有効利用などを、例えば携帯端末装置やパーソナルコンピュータ、その他の情報処理が実行できる機器において実現できる。
 このようなプログラムは、コンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
 あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 またこのようなプログラムによれば、実施の形態の端末装置22やサーバ装置10の広範な提供に適している。例えばスマートフォンやタブレット等の携帯端末装置、撮像装置、携帯電話機、パーソナルコンピュータ、スチルカメラ、ビデオカメラ、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、当該スマートフォン等を、本開示の端末装置22やサーバ装置10として機能させることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージから、前記所定の情報を取得するとともに、前記複数のサービスのそれぞれによる前記所定の情報を用いた情報提示を実行させる制御部を備えた
 情報処理装置。
 (2)
 前記複数のサービスは、それぞれが撮像装置と関連する機能を備えたサービスであり、
 前記所定の情報は、ユーザ毎に登録された撮像装置又は関連機器の情報である
 上記(1)に記載の情報処理装置。
 (3)
 前記所定の情報は、ユーザに関連づけられて登録された画像情報である
 上記(1)又は(2)に記載の情報処理装置。
 (4)
 前記所定の情報は、ユーザ個人に関連づけられて登録されたユーザ情報である
 上記(1)から(3)のいずれかに記載の情報処理装置。
 (5)
 前記複数のサービスの1つとして、通信接続された撮像装置の初期設定を行う機能を有するサービスがあり、
 該サービスに関して前記制御部は、初期設定画面を提示し、入力に応じて初期設定情報を通信接続された撮像装置に転送する処理を行う
 上記(1)から(4)のいずれかに記載の情報処理装置。
 (6)
 前記複数のサービスの1つとして、通信接続された撮像装置のプログラムのアップデートを行う機能を有するサービスがあり、
 該サービスに関して前記制御部は、アップデートの要否判定処理、アップデートプログラムのダウンロード処理、又は通信接続された撮像装置へのアップデートプログラムの転送処理のいずれかを行う
 上記(1)から(5)のいずれかに記載の情報処理装置。
 (7)
 前記複数のサービスの1つとして、通信接続された撮像装置の診断処理機能を有するサービスがあり、
 該サービスに関して前記制御部は、診断対象の撮像装置の情報の送信処理、撮像装置の情報に基づく診断処理、又は診断結果の受信及び提示処理のいずれかを行う
 上記(1)から(6)のいずれかに記載の情報処理装置。
 (8)
 前記複数のサービスの1つとして、通信接続された撮像装置の撮影をリモート操作する機能を有するサービスがあり、
 該サービスに関して前記制御部は、通信接続された撮像装置についての登録された情報に基づいた操作画像の表示処理を行う
 上記(1)から(7)のいずれかに記載の情報処理装置。
 (9)
 前記複数のサービスの1つとして、前記複数のサービスに関連する通知を提示する機能を有するサービスがあり、
 該サービスに関して前記制御部は、前記複数のサービスに関連する通知をまとめて提示する処理を行う
 上記(1)から(8)のいずれかに記載の情報処理装置。
 (10)
 前記所定の情報は、ユーザ毎に登録された撮像装置又は関連機器の情報であり、
 前記複数のサービスの1つとして、ユーザ個人の撮像装置又は関連機器を管理する機能を有するサービスがあり、
 該サービスに関して前記制御部は、ユーザ個人に対して登録された撮像装置又は関連機器を一覧提示する処理を行う
 上記(1)から(9)のいずれかに記載の情報処理装置。
 (11)
 前記所定の情報は、ユーザ毎に登録された撮像装置又は関連機器の情報であり、
 前記複数のサービスの1つとして、ユーザ個人の撮像装置又は関連機器を管理する機能を有するサービスがあり、
 該サービスに関して前記制御部は、通信接続中の撮像装置又は関連機器の情報を追加登録する処理を行う
 上記(1)から(10)のいずれかに記載の情報処理装置。
 (12)
 前記所定の情報は、ユーザに関連づけられて登録された画像情報であり、
 前記複数のサービスの1つとして、ユーザに画像コンテンツを含むプロジェクトを作成させる機能を有するサービスがあり、
 該サービスに関して前記制御部は、ユーザに関連して前記特定ストレージに記憶された画像情報に含まれる画像データを選択させる処理と、選択された画像データをプロジェクトに組み込む処理とを行う
 上記(1)から(11)のいずれかに記載の情報処理装置。
 (13)
 前記複数のサービスの1つとして、ユーザに画像コンテンツを含むプロジェクトを作成させる機能を有するサービスがあり、
 該サービスに関して前記制御部は、使用した撮像装置や関連機器の情報をプロジェクトに関連づける処理を行う
 上記(1)から(12)のいずれかに記載の情報処理装置。
 (14)
 前記複数のサービスの1つとして、ユーザに画像コンテンツを含むプロジェクトを作成させる機能を有するサービスがあり、
 該サービスに関して前記制御部は、ユーザ毎にプロジェクトを一覧表示させる処理、及び個々のプロジェクトの詳細を表示させる処理を行う
 上記(1)から(13)のいずれかに記載の情報処理装置。
 (15)
 前記制御部は、個々のプロジェクトについて販売情報を付加して表示させる処理を行う
 上記(14)に記載の情報処理装置。
 (16)
 前記所定の情報は、ユーザ毎に登録された撮像装置又は関連機器の情報であり、
 前記複数のサービスの1つとして、ユーザ個人ページを表示させる機能を有するサービスがあり、
 該サービスに関して前記制御部は、ユーザ個人ページにおいてユーザ個人に関連づけられて前記特定ストレージに記憶された撮像装置又は関連機器の情報を表示させる処理を行う
 上記(1)から(15)のいずれかに記載の情報処理装置。
 (17)
 前記所定の情報は、ユーザ毎に登録された撮像装置又は関連機器の情報、又はユーザに関連づけられて登録された画像情報、又はユーザ個人に関連づけられて登録されたユーザ情報であり、
 前記複数のサービスの1つとして、商品を販売する販売ページを表示させる機能を有するサービスがあり、
 該サービスに関して前記制御部は、前記所定の情報に応じて選択された商品を表示させる処理を行う
 上記(1)から(16)のいずれかに記載の情報処理装置。
 (18)
 それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージと、
 前記特定ストレージから、前記所定の情報を取得するとともに、前記複数のサービスのそれぞれによる前記所定の情報を用いた情報提示を実行させる制御部と、を備えた
 情報処理装置。
 (19)
 それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージから、前記所定の情報を取得する処理と、
 前記複数のサービスのそれぞれによる前記所定の情報を用いた情報提示を実行させる制御処理と、
 を情報処理装置が行う情報処理方法。
 (20)
 それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージから、前記所定の情報を取得する処理と、
 前記複数のサービスのそれぞれによる前記所定の情報を用いた情報提示を実行させる制御処理と、
 を情報処理装置に実行させるプログラム。
1 サーバシステム
2 ユーザ機器
10 サーバ装置
11 ストレージ
21 カメラ
22 端末装置
30 ポータルサービス
31 ネットワークサービス
32 マーケットプレイス
33 コンテンツ制作ツール
34 リモート撮影機能
35 カメラ自己診断機能
36 カメラ初期設定機能
37 カメラアップデート機能
38 画像転送機能
70 情報処理装置
71 CPU
71a サービス対応制御部

Claims (20)

  1.  それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージから、前記所定の情報を取得するとともに、前記複数のサービスのそれぞれによる前記所定の情報を用いた情報提示を実行させる制御部を備えた
     情報処理装置。
  2.  前記複数のサービスは、それぞれが撮像装置と関連する機能を備えたサービスであり、
     前記所定の情報は、ユーザ毎に登録された撮像装置又は関連機器の情報である
     請求項1に記載の情報処理装置。
  3.  前記所定の情報は、ユーザに関連づけられて登録された画像情報である
     請求項1に記載の情報処理装置。
  4.  前記所定の情報は、ユーザ個人に関連づけられて登録されたユーザ情報である
     請求項1に記載の情報処理装置。
  5.  前記複数のサービスの1つとして、通信接続された撮像装置の初期設定を行う機能を有するサービスがあり、
     該サービスに関して前記制御部は、初期設定画面を提示し、入力に応じて初期設定情報を通信接続された撮像装置に転送する処理を行う
     請求項1に記載の情報処理装置。
  6.  前記複数のサービスの1つとして、通信接続された撮像装置のプログラムのアップデートを行う機能を有するサービスがあり、
     該サービスに関して前記制御部は、アップデートの要否判定処理、アップデートプログラムのダウンロード処理、又は通信接続された撮像装置へのアップデートプログラムの転送処理のいずれかを行う
     請求項1に記載の情報処理装置。
  7.  前記複数のサービスの1つとして、通信接続された撮像装置の診断処理機能を有するサービスがあり、
     該サービスに関して前記制御部は、診断対象の撮像装置の情報の送信処理、撮像装置の情報に基づく診断処理、又は診断結果の受信及び提示処理のいずれかを行う
     請求項1に記載の情報処理装置。
  8.  前記複数のサービスの1つとして、通信接続された撮像装置の撮影をリモート操作する機能を有するサービスがあり、
     該サービスに関して前記制御部は、通信接続された撮像装置についての登録された情報に基づいた操作画像の表示処理を行う
     請求項1に記載の情報処理装置。
  9.  前記複数のサービスの1つとして、前記複数のサービスに関連する通知を提示する機能を有するサービスがあり、
     該サービスに関して前記制御部は、前記複数のサービスに関連する通知をまとめて提示する処理を行う
     請求項1に記載の情報処理装置。
  10.  前記所定の情報は、ユーザ毎に登録された撮像装置又は関連機器の情報であり、
     前記複数のサービスの1つとして、ユーザ個人の撮像装置又は関連機器を管理する機能を有するサービスがあり、
     該サービスに関して前記制御部は、ユーザ個人に対して登録された撮像装置又は関連機器を一覧提示する処理を行う
     請求項1に記載の情報処理装置。
  11.  前記所定の情報は、ユーザ毎に登録された撮像装置又は関連機器の情報であり、
     前記複数のサービスの1つとして、ユーザ個人の撮像装置又は関連機器を管理する機能を有するサービスがあり、
     該サービスに関して前記制御部は、通信接続中の撮像装置又は関連機器の情報を追加登録する処理を行う
     請求項1に記載の情報処理装置。
  12.  前記所定の情報は、ユーザに関連づけられて登録された画像情報であり、
     前記複数のサービスの1つとして、ユーザに画像コンテンツを含むプロジェクトを作成させる機能を有するサービスがあり、
     該サービスに関して前記制御部は、ユーザに関連して前記特定ストレージに記憶された画像情報に含まれる画像データを選択させる処理と、選択された画像データをプロジェクトに組み込む処理とを行う
     請求項1に記載の情報処理装置。
  13.  前記複数のサービスの1つとして、ユーザに画像コンテンツを含むプロジェクトを作成させる機能を有するサービスがあり、
     該サービスに関して前記制御部は、使用した撮像装置や関連機器の情報をプロジェクトに関連づける処理を行う
     請求項1に記載の情報処理装置。
  14.  前記複数のサービスの1つとして、ユーザに画像コンテンツを含むプロジェクトを作成させる機能を有するサービスがあり、
     該サービスに関して前記制御部は、ユーザ毎にプロジェクトを一覧表示させる処理、及び個々のプロジェクトの詳細を表示させる処理を行う
     請求項1に記載の情報処理装置。
  15.  前記制御部は、個々のプロジェクトについて販売情報を付加して表示させる処理を行う
     請求項14に記載の情報処理装置。
  16.  前記所定の情報は、ユーザ毎に登録された撮像装置又は関連機器の情報であり、
     前記複数のサービスの1つとして、ユーザ個人ページを表示させる機能を有するサービスがあり、
     該サービスに関して前記制御部は、ユーザ個人ページにおいてユーザ個人に関連づけられて前記特定ストレージに記憶された撮像装置又は関連機器の情報を表示させる処理を行う
     請求項1に記載の情報処理装置。
  17.  前記所定の情報は、ユーザ毎に登録された撮像装置又は関連機器の情報、又はユーザに関連づけられて登録された画像情報、又はユーザ個人に関連づけられて登録されたユーザ情報であり、
     前記複数のサービスの1つとして、商品を販売する販売ページを表示させる機能を有するサービスがあり、
     該サービスに関して前記制御部は、前記所定の情報に応じて選択された商品を表示させる処理を行う
     請求項1に記載の情報処理装置。
  18.  それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージと、
     前記特定ストレージから、前記所定の情報を取得するとともに、前記複数のサービスのそれぞれによる前記所定の情報を用いた情報提示を実行させる制御部と、を備えた
     情報処理装置。
  19.  それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージから、前記所定の情報を取得する処理と、
     前記複数のサービスのそれぞれによる前記所定の情報を用いた情報提示を実行させる制御処理と、
     を情報処理装置が行う情報処理方法。
  20.  それぞれがアプリケーションソフトウェア又はウェブサイトを介して情報を閲覧可能な複数のサービスで用いられる所定の情報を共通管理する特定ストレージから、前記所定の情報を取得する処理と、
     前記複数のサービスのそれぞれによる前記所定の情報を用いた情報提示を実行させる制御処理と、
     を情報処理装置に実行させるプログラム。
PCT/JP2023/031940 2022-09-12 2023-08-31 情報処理装置、情報処理方法、プログラム WO2024057964A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-144561 2022-09-12
JP2022144561 2022-09-12

Publications (1)

Publication Number Publication Date
WO2024057964A1 true WO2024057964A1 (ja) 2024-03-21

Family

ID=90275131

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/031940 WO2024057964A1 (ja) 2022-09-12 2023-08-31 情報処理装置、情報処理方法、プログラム

Country Status (1)

Country Link
WO (1) WO2024057964A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112115A (ja) * 2002-09-13 2004-04-08 Canon Inc 情報処理システム及び情報処理装置及び情報処理方法及びそれを実施するプログラムを情報処理装置読み出し可能に記憶した記憶媒体及びそのプログラム
JP2011065243A (ja) * 2009-09-15 2011-03-31 Yahoo Japan Corp イベント通知機能提供装置
JP2013171477A (ja) * 2012-02-22 2013-09-02 Zenrin Datacom Co Ltd 情報収集提供サーバ装置、情報収集提供方法および情報収集提供プログラム
JP2016122461A (ja) * 2016-02-18 2016-07-07 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112115A (ja) * 2002-09-13 2004-04-08 Canon Inc 情報処理システム及び情報処理装置及び情報処理方法及びそれを実施するプログラムを情報処理装置読み出し可能に記憶した記憶媒体及びそのプログラム
JP2011065243A (ja) * 2009-09-15 2011-03-31 Yahoo Japan Corp イベント通知機能提供装置
JP2013171477A (ja) * 2012-02-22 2013-09-02 Zenrin Datacom Co Ltd 情報収集提供サーバ装置、情報収集提供方法および情報収集提供プログラム
JP2016122461A (ja) * 2016-02-18 2016-07-07 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム

Similar Documents

Publication Publication Date Title
US8458235B2 (en) System and computer program product for file management
JP5118592B2 (ja) ファイル管理システム
JP6149434B2 (ja) 情報処理装置、文書管理サーバ、プログラム、ファイルシステム
JP2013528864A (ja) 興味があるクラウドに含まれる関心タグに基づくコンテンツの選択
JP6771891B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5119288B2 (ja) 携帯端末装置、情報出力システム、情報出力方法、プログラムおよび記録媒体
KR20140013253A (ko) 클라우드 서비스 기반 컨텐츠 검색 방법과 이를 지원하는 시스템 및 단말기
JP4661159B2 (ja) 情報提供システム,メタデータ収集解析サーバ,およびコンピュータプログラム
JP2016095790A (ja) 情報処理装置、情報処理システム、情報処理方法および情報処理プログラム
WO2024057964A1 (ja) 情報処理装置、情報処理方法、プログラム
JP2005196615A (ja) 情報処理システムおよび情報処理方法
JP2020149564A (ja) ウェブサービス提供サーバ及びプログラム
JP2008257458A (ja) コンテンツ管理システム
TW202238481A (zh) 推薦適地性數位內容的方法與系統
JP2017037437A (ja) 情報処理システム、情報処理装置、情報処理方法および情報処理プログラム
JP7232741B2 (ja) 情報処理システム、サーバ、情報処理方法
JP2005196613A (ja) 情報処理装置および情報処理方法、情報処理システム、記録媒体、並びに、プログラム
JP6109511B2 (ja) 電子機器、表示制御方法及びプログラム
JP2005198139A (ja) 情報処理システム、情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP2019061365A (ja) 情報処理装置及び情報処理プログラム
JP5903837B2 (ja) 情報処理装置、情報処理システム、その制御方法およびそのプログラム
JP2005196614A (ja) 情報処理システムおよび情報処理方法
JP4804301B2 (ja) 情報処理装置、情報処理装置の制御方法、及び記録媒体
JP2005196617A (ja) 情報処理装置および情報処理方法、記録媒体、並びにプログラム
JP2023161430A (ja) サービス提供システム、プログラム、情報処理システム及びネットワークストレージ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23865319

Country of ref document: EP

Kind code of ref document: A1