JP2022156996A - Information processing method, program, and information processing device - Google Patents

Information processing method, program, and information processing device Download PDF

Info

Publication number
JP2022156996A
JP2022156996A JP2021060980A JP2021060980A JP2022156996A JP 2022156996 A JP2022156996 A JP 2022156996A JP 2021060980 A JP2021060980 A JP 2021060980A JP 2021060980 A JP2021060980 A JP 2021060980A JP 2022156996 A JP2022156996 A JP 2022156996A
Authority
JP
Japan
Prior art keywords
image
question
information processing
user
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021060980A
Other languages
Japanese (ja)
Other versions
JP7064159B1 (en
Inventor
達也 若狭
Tatsuya Wakasa
励 佐々木
Tsutomu Sasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2021060980A priority Critical patent/JP7064159B1/en
Application granted granted Critical
Publication of JP7064159B1 publication Critical patent/JP7064159B1/en
Publication of JP2022156996A publication Critical patent/JP2022156996A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide an information processing method for providing an image obtained by photographing users of a facility with information other than the image, a program and an information processing device.SOLUTION: According to an embodiment, an information processing method is executed by an information processing device, and includes processing for displaying an extracted image from an image acquired by a photographing device installed in a facility used by users, processing for displaying a first question about the image and a first selection candidate as an answer to the first question, and processing for displaying action taken to the users.SELECTED DRAWING: Figure 7

Description

本発明は、撮影装置が撮影した画像の表示に係る処理を行う情報処理方法、プログラム、及び情報処理装置に関する。 The present invention relates to an information processing method, a program, and an information processing apparatus that perform processing related to display of an image captured by a photographing device.

発達心理学において、保育を通して非認知的能力を育むことの重要性が認識されている。特許文献1においては、非認知能力を診断するための手法が提案されている。 Developmental psychology recognizes the importance of fostering non-cognitive abilities through childcare. Patent Literature 1 proposes a method for diagnosing non-cognitive abilities.

特開2021-039572号公報Japanese Patent Application Laid-Open No. 2021-039572

このような非認知能力を育む契機となる機会を見つけることが難しい。特に、発達心理学の分野では、幼少期にある子供は褒められることにより非認知能力を育むことが期待できることが知られている。 It is difficult to find an opportunity to develop such non-cognitive abilities. Especially in the field of developmental psychology, it is known that children in childhood can be expected to develop non-cognitive abilities by being praised.

一方、子供は保育園や学童などの施設において過ごす時間が長く、保護者の目の届かないところで様々な経験を積む。そのため、保護者と子供との間の会話の話題を見つけて、子供を褒めることに繋げていくことは容易ではない。 On the other hand, children spend a lot of time in facilities such as nursery schools and schoolchildren, and gain various experiences out of the reach of their parents. Therefore, it is not easy to find a topic of conversation between the parent and the child and connect it to praising the child.

本発明は、上記の課題を鑑みてなされたものであり、保護者と子供との間の会話を促すことを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to encourage conversation between parents and children.

一実施形態にかかる情報処理装置が実行する情報処理方法は、施設の利用者を撮影した画像を、画像以外の情報と共に提供する方法であって、利用者が利用する施設に設置された撮影装置が撮影した画像から、抽出された画像を表示する処理と、前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を表示する処理と、前記利用者に対してとるアクションを表示する処理と、を含む。 An information processing method executed by an information processing apparatus according to an embodiment is a method of providing an image of a facility user photographed together with information other than the image, and is a method of providing a photographing apparatus installed in a facility used by the user. a process of displaying an image extracted from an image taken by the user; a process of displaying a first question about the image; and a first selection candidate as an answer to the first question; displaying actions to take on the .

一実施形態によれば、保護者と子供との間の会話を促すことが期待できる。 According to one embodiment, it can be expected to encourage conversation between parents and children.

本実施形態に係る制御システムの構成の一例を示す図である。It is a figure showing an example of composition of a control system concerning this embodiment. 情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an information processing apparatus. 端末装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a terminal device. 情報処理装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of an information processing apparatus. ユーザDBの一構成例を示す模式図である。It is a schematic diagram which shows one structural example of user DB. 端末装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a terminal device. 第1質問表示画面の一例を示す図である。It is a figure which shows an example of a 1st question display screen. 第2質問表示画面の一例を示す図である。It is a figure which shows an example of a 2nd question display screen. 第2質問表示画面の一例を示す図である。It is a figure which shows an example of a 2nd question display screen. 第3質問表示画面の一例を示す図である。It is a figure which shows an example of a 3rd question display screen. 第3質問表示画面の一例を示す図である。It is a figure which shows an example of a 3rd question display screen. 情報処理装置による画像記憶処理の一例を示すフローチャートである。4 is a flowchart showing an example of image storage processing by an information processing device; 情報処理装置による画像表示処理の一例を示すフローチャートである。4 is a flowchart showing an example of image display processing by an information processing device; 端末装置による画像表示処理の一例を示すフローチャートである。4 is a flowchart showing an example of image display processing by a terminal device; 第2の実施形態に係る選択画面の一例を示す図である。It is a figure which shows an example of the selection screen which concerns on 2nd Embodiment. 第2の実施形態に係る第1質問表示画面の一例を示す図である。It is a figure which shows an example of the 1st question display screen which concerns on 2nd Embodiment. 第2の実施形態に係る第2質問表示画面の一例を示す図である。It is a figure which shows an example of the 2nd question display screen which concerns on 2nd Embodiment. 第2の実施形態に係る第2質問表示画面の一例を示す図である。It is a figure which shows an example of the 2nd question display screen which concerns on 2nd Embodiment. 第2の実施形態に係る第3質問表示画面の一例を示す図である。It is a figure which shows an example of the 3rd question display screen which concerns on 2nd Embodiment. 第2の実施形態に係る第3質問表示画面の一例を示す図である。It is a figure which shows an example of the 3rd question display screen which concerns on 2nd Embodiment. 第2の実施形態に係る抽出画像表示画面の一例を示す図である。FIG. 11 is a diagram showing an example of an extracted image display screen according to the second embodiment; FIG. 第2の実施形態に係る端末装置による画像表示処理の一例を示すフローチャートである。9 is a flowchart showing an example of image display processing by a terminal device according to the second embodiment;

以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Hereinafter, each embodiment of the present invention will be described with reference to the accompanying drawings. Regarding the descriptions of the specifications and drawings according to each embodiment, components having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

<システム概要>
図1は、本実施形態に係る情報処理システム1の構成の一例を示す図である。本実施形態に係る情報処理システム1は、施設に設置された撮影装置20が撮影した画像を情報処理装置10へ送信し、撮影装置20から受信した画像を情報処理装置10が処理してユーザの端末装置30へ送信するシステムである。なお、画像は、静止画像、又は動画像である。
<System overview>
FIG. 1 is a diagram showing an example of the configuration of an information processing system 1 according to this embodiment. The information processing system 1 according to the present embodiment transmits an image captured by a photographing device 20 installed in a facility to the information processing device 10, and the information processing device 10 processes the image received from the photographing device 20 to provide a user's image. This system transmits to the terminal device 30 . Note that the image is a still image or a moving image.

図1に例示するように、本実施形態に係る情報処理システム1は、情報処理装置10、撮影装置20、及び端末装置30を備える。情報処理装置10、撮影装置20、及び端末装置30は、ネットワークNを介して相互に通信可能に接続される。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。また、情報処理装置10と撮影装置20とを接続するネットワークと、情報処理装置10と端末装置30とを接続するネットワークと、撮影装置20と端末装置30とを接続するネットワークとは、異なるものであってもよい。なお、図1の例では、情報処理システム1は、情報処理装置10、撮影装置20、及び端末装置30をそれぞれ1つ備えるが、複数備えてもよい。 As illustrated in FIG. 1 , an information processing system 1 according to this embodiment includes an information processing device 10 , a photographing device 20 and a terminal device 30 . The information processing device 10, the photographing device 20, and the terminal device 30 are connected via a network N so as to be able to communicate with each other. The network N is, for example, a wired LAN (Local Area Network), a wireless LAN, the Internet, a public line network, a mobile data communication network, or a combination thereof. Also, the network connecting the information processing device 10 and the photographing device 20, the network connecting the information processing device 10 and the terminal device 30, and the network connecting the photographing device 20 and the terminal device 30 are different. There may be. In the example of FIG. 1, the information processing system 1 includes one each of the information processing device 10, the imaging device 20, and the terminal device 30, but may include a plurality of them.

情報処理装置10は、ネットワークNを介して撮影装置20から画像を受信し、受信した画像を記憶装置(後述するストレージ103)に記憶して蓄積し、ユーザが使用する端末装置30に対して、蓄積した画像を送信する装置(コンピュータ)である。なお、情報処理装置10は、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ、又はこれらの組み合わせである。情報処理装置10について、詳しくは後述する。 The information processing device 10 receives an image from the image capturing device 20 via the network N, stores the received image in a storage device (storage 103 described later), accumulates the image, and sends the image to the terminal device 30 used by the user. It is a device (computer) that transmits stored images. The information processing device 10 is a PC (Personal Computer), a smart phone, a tablet terminal, a server, or a combination thereof. The information processing device 10 will be described later in detail.

撮影装置20は、例えば1秒間に数回~数十回の周期で撮影を行い、撮影により得られた画像を情報処理装置10へ送信する。また、撮影装置20は、例えばカメラを有するスマートフォン又はタブレット型端末装置等の装置であってもよい。また、撮影装置20は、撮影方向又は画角等が可変の装置であってよく、例えば所定の被写体を自動追跡して撮影を行うカメラであってもよい。また撮影装置20は、例えば360°の範囲を撮影可能なカメラであってもよい。また、撮影装置20は、例えばドローン等の移動体に搭載されるカメラであってよく、施設に設置された撮影装置20には、このような移動体に搭載されたカメラにて施設の内外の撮影を行う装置が含まれ得る。また、施設には、上記のような種々の構成の撮影装置20が複数設置されてよい。この撮影装置20は単にカメラともいう。 The photographing device 20 performs photographing at intervals of, for example, several times to several tens of times per second, and transmits an image obtained by photographing to the information processing device 10 . In addition, the imaging device 20 may be a device such as a smartphone having a camera or a tablet terminal device. Further, the photographing device 20 may be a device whose photographing direction or angle of view is variable, and may be, for example, a camera that automatically tracks and photographs a predetermined subject. Further, the photographing device 20 may be a camera capable of photographing a range of 360°, for example. The imaging device 20 may be a camera mounted on a moving body such as a drone. A device for taking pictures may be included. In addition, a plurality of imaging devices 20 having various configurations as described above may be installed in the facility. This photographing device 20 is also simply called a camera.

端末装置30は、スマートフォン又はPC(パーソナルコンピュータ)等の端末装置である。この端末装置30は、一例として、施設を利用する子供(利用者)の保護者(関係者)等が所有しており、端末装置30に対して提供される本サービスは子供と保護者とで使用する。なお、本実施形態において、ユーザとは、保護者、施設の利用者である子供、又は親子等である。端末装置30は、情報処理装置10によって送信された情報をネットワークNを介して取得し、画面上に表示させる。また、撮影装置20が撮影した画像を、ネットワークNを介して情報処理装置10から取得してもよい。これにより、例えば、保育園又は幼稚園等の施設に子供を預けている保護者は、当該施設で過ごす子供の様子を撮影装置20にて撮影した画像を自身の撮影装置20にて閲覧することができる。そして、本実施形態では、端末装置30に表示される上述のような画像を保護者と子供とで共に閲覧することを想定している。 The terminal device 30 is a terminal device such as a smartphone or a PC (personal computer). This terminal device 30 is owned by, for example, a parent (related person) of a child (user) who uses the facility, and this service provided to the terminal device 30 is shared between the child and the parent. use. In this embodiment, the user is a guardian, a child who uses the facility, a parent and child, or the like. The terminal device 30 acquires the information transmitted by the information processing device 10 via the network N and displays it on the screen. Also, the image captured by the imaging device 20 may be acquired from the information processing device 10 via the network N. FIG. As a result, for example, a parent who entrusts a child to a facility such as a nursery school or a kindergarten can view an image captured by the imaging device 20 of the child spending time at the facility using the imaging device 20 of the parent. . In this embodiment, it is assumed that the above-described image displayed on the terminal device 30 is viewed by both the parent and the child.

なお、本例では保育園又は幼稚園等の施設にて子供の撮影を行う場合について説明したが、本実施形態に係る情報処理システム1の適用は保育園又は幼稚園等の施設に限られない。施設は、例えば遊園地又はテーマパーク等の商業施設であってもよく、また例えばスポーツ又はイベント等が開催される会場等の施設であってもよく、また例えば利用者の自宅であってもよい。また撮影装置20による撮影対象は、人でなくてもよく、例えば動物園の動物又は自宅のペット等であってもよい。 In this example, a case of photographing a child at a facility such as a nursery school or kindergarten has been described, but the application of the information processing system 1 according to this embodiment is not limited to facilities such as a nursery school or kindergarten. The facility may be, for example, a commercial facility such as an amusement park or theme park, or may be a facility such as a venue where sports or events are held, or may be, for example, the user's home. . Also, the object to be photographed by the photographing device 20 may not be a person, but may be, for example, an animal in a zoo or a pet at home.

<ハードウェア構成>
次に、情報処理装置10のハードウェア構成について図2を用いて説明する。図2は、情報処理装置10のハードウェア構成の一例を示す図である。図2に示すように、情報処理装置10は、バスB1を介して相互に接続された、プロセッサ101と、メモリ102と、ストレージ103と、通信I/F104と、入出力I/F105と、ドライブ装置106と、を備える。さらに、情報処理装置10は、入力装置107と、出力装置108と、を備える。
<Hardware configuration>
Next, the hardware configuration of the information processing device 10 will be described using FIG. FIG. 2 is a diagram showing an example of the hardware configuration of the information processing device 10. As shown in FIG. As shown in FIG. 2, the information processing apparatus 10 includes a processor 101, a memory 102, a storage 103, a communication I/F 104, an input/output I/F 105, and drives, which are interconnected via a bus B1. a device 106; Furthermore, the information processing apparatus 10 includes an input device 107 and an output device 108 .

プロセッサ101は、ストレージ103に記憶されたプログラムをメモリ102に展開して実行することにより、情報処理装置10の各構成を制御し、情報処理装置10の機能を実現する。プロセッサ101が実行するプログラムは、OS(Operating System)及び表示制御等を行うためのサーバプログラムを含むが、これに限られない。プロセッサ101がサーバプログラムを実行することにより、本実施形態に係る制御が実現される。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、又はこれらの組み合わせである。 The processor 101 expands the program stored in the storage 103 into the memory 102 and executes it, thereby controlling each configuration of the information processing apparatus 10 and realizing the functions of the information processing apparatus 10 . Programs executed by the processor 101 include, but are not limited to, an OS (Operating System) and a server program for performing display control and the like. Control according to the present embodiment is realized by the processor 101 executing the server program. The processor 101 is, for example, a CPU (Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), DSP (Digital Signal Processor), or a combination thereof.

メモリ102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)、SRAM(Static RAM)、MRAM(Magnetoresistive RAM)、又はこれらの組み合わせである。 The memory 102 is, for example, ROM (Read Only Memory), RAM (Random Access Memory), or a combination thereof. ROM is, for example, PROM (Programmable ROM), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), or a combination thereof. RAM is, for example, DRAM (Dynamic RAM), SRAM (Static RAM), MRAM (Magnetoresistive RAM), or a combination thereof.

ストレージ103は、OS、サーバプログラム、及び各種のデータを記憶する。ストレージ103は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SCM(Storage Class Memories)、又はこれらの組み合わせである。 The storage 103 stores an OS, server programs, and various data. The storage 103 is, for example, flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), SCM (Storage Class Memories), or a combination thereof.

通信I/F104は、情報処理装置10をネットワークNに接続させるためのインタフェースである。 The communication I/F 104 is an interface for connecting the information processing device 10 to the network N. FIG.

入出力I/F105は、情報処理装置10に入力装置107及び出力装置108を接続するためのインタフェースである。 The input/output I/F 105 is an interface for connecting the input device 107 and the output device 108 to the information processing apparatus 10 .

ドライブ装置106は、ディスクメディア109のデータを読み書きする。ディスクメディア109は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ、又はこれらの組み合わせである。ディスクメディア109は、例えば、CD、DVD、FD、MO、又はこれらの組み合わせである。 The drive device 106 reads and writes data on the disk media 109 . Disk media 109 is, for example, a magnetic disk drive, an optical disk drive, a magneto-optical disk drive, or a combination thereof. The disk medium 109 is, for example, CD, DVD, FD, MO, or a combination thereof.

入力装置107は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、カメラ、各種センサ、又はこれらの組み合わせである。 The input device 107 is, for example, a mouse, keyboard, touch panel, microphone, scanner, camera, various sensors, or a combination thereof.

出力装置108は、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、又はこれらの組み合わせである。 Output device 108 is, for example, a display, projector, printer, speaker, or combination thereof.

なお、本実施形態において、サーバプログラムは、情報処理装置10の製造段階でメモリ102又はストレージ103に書き込まれてもよいし、ネットワークNを介して情報処理装置10に提供されてもよいし、非一時的でコンピュータ読み取り可能な記録媒体を介して情報処理装置10に提供されてもよい。 In this embodiment, the server program may be written in the memory 102 or the storage 103 at the manufacturing stage of the information processing device 10, may be provided to the information processing device 10 via the network N, or may be provided to the information processing device 10 via the network N. It may be provided to the information processing apparatus 10 via a temporary computer-readable recording medium.

図3は、端末装置30のハードウェア構成の一例を示す図である。図3に示すように、端末装置30は、バスB3を介して相互に接続された、プロセッサ301と、メモリ302と、ストレージ303と、通信I/F304と、入出力I/F305と、を備える。さらに、端末装置30は、入力装置307と、出力装置308と、を備える。 FIG. 3 is a diagram showing an example of the hardware configuration of the terminal device 30. As shown in FIG. As shown in FIG. 3, the terminal device 30 includes a processor 301, a memory 302, a storage 303, a communication I/F 304, and an input/output I/F 305, which are interconnected via a bus B3. . Furthermore, the terminal device 30 includes an input device 307 and an output device 308 .

プロセッサ301は、ストレージ303に記憶されたプログラムをメモリ302に展開して実行することにより、端末装置30の各構成を制御し、端末装置30の機能を実現する。プロセッサ301が実行するプログラムは、OS、及び表示制御プログラム等のサーバプログラムを含むが、これに限られない。プロセッサ301は、例えば、CPU、MPU、GPU、ASIC、DSP、又はこれらの組み合わせである。 The processor 301 expands the program stored in the storage 303 into the memory 302 and executes it, thereby controlling each component of the terminal device 30 and realizing the functions of the terminal device 30 . Programs executed by the processor 301 include, but are not limited to, an OS and a server program such as a display control program. Processor 301 is, for example, a CPU, MPU, GPU, ASIC, DSP, or a combination thereof.

メモリ302は、例えば、ROM、RAM、又はこれらの組み合わせである。ROMは、例えば、PROM、EPROM、EEPROM、又はこれらの組み合わせである。RAMは、例えば、DRAM、SRAM、MRAM、又はこれらの組み合わせである。 Memory 302 is, for example, ROM, RAM, or a combination thereof. ROM is, for example, PROM, EPROM, EEPROM, or a combination thereof. RAM is, for example, DRAM, SRAM, MRAM, or a combination thereof.

ストレージ303は、OS、サーバプログラム、及び各種のデータを記憶する。ストレージ303は、例えば、フラッシュメモリ、HDD、SSD、SCM、又はこれらの組み合わせである。 The storage 303 stores an OS, server programs, and various data. Storage 303 is, for example, flash memory, HDD, SSD, SCM, or a combination thereof.

通信I/F304は、端末装置30をネットワークNに接続させるためのインタフェースである。通信I/F304は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)、又はこれらの組み合わせによる無線通信が可能である。 A communication I/F 304 is an interface for connecting the terminal device 30 to the network N. FIG. The communication I/F 304 is capable of wireless communication using, for example, Bluetooth (registered trademark), Wi-Fi (registered trademark), ZigBee (registered trademark), or a combination thereof.

入出力I/F305は、端末装置30に入力装置307及び出力装置308を接続するためのインタフェースである。 The input/output I/F 305 is an interface for connecting the input device 307 and the output device 308 to the terminal device 30 .

入力装置307は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、カメラ、各種センサ、又はこれらの組み合わせである。 The input device 307 is, for example, a mouse, keyboard, touch panel, microphone, scanner, camera, various sensors, or a combination thereof.

出力装置308は、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、又はこれらの組み合わせである。 Output device 308 is, for example, a display, projector, printer, speaker, or combination thereof.

なお、本実施形態において、サーバプログラムは、端末装置30の製造段階でメモリ302又はストレージ303に書き込まれてもよいし、ネットワークNを介して端末装置30に提供されてもよいし、非一時的でコンピュータ読み取り可能な記録媒体を介して端末装置30に提供されてもよい。 In this embodiment, the server program may be written in the memory 302 or the storage 303 at the manufacturing stage of the terminal device 30, may be provided to the terminal device 30 via the network N, or may be non-temporarily stored. may be provided to the terminal device 30 via a computer-readable recording medium.

<機能構成>
次に、情報処理装置10、及び端末装置30の機能構成についてそれぞれ説明する。図4は、情報処理装置10の機能構成の一例を示す図である。図4に例示するように、情報処理装置10は、通信部11と、記憶部12と、制御部13と、を備える。
<Functional configuration>
Next, functional configurations of the information processing device 10 and the terminal device 30 will be described. FIG. 4 is a diagram showing an example of the functional configuration of the information processing device 10. As shown in FIG. As illustrated in FIG. 4 , the information processing device 10 includes a communication section 11 , a storage section 12 and a control section 13 .

通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、種々の装置との間で通信を行う。本実施形態において、通信部11は、ネットワークNを介して、撮影装置20から撮影された画像を受信する。また、通信部11は、端末装置30に対して情報を送信し、端末装置30からユーザによるリクエストを受信する。このようにして、通信部11は、ネットワークNを介して、撮影装置20や端末装置30との間で情報の送受信を行う。また、通信部11は、制御部13から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを制御部13へ与える。 Communication unit 11 is implemented by communication I/F 104 . The communication unit 11 communicates with various devices via the network N. FIG. In this embodiment, the communication unit 11 receives an image captured by the imaging device 20 via the network N. FIG. The communication unit 11 also transmits information to the terminal device 30 and receives requests from the user from the terminal device 30 . In this manner, the communication unit 11 transmits and receives information to and from the imaging device 20 and the terminal device 30 via the network N. FIG. Further, the communication unit 11 transmits data given from the control unit 13 to other devices, and gives the data received from the other devices to the control unit 13 .

記憶部12は、メモリ102、及びストレージ103により実現される。記憶部12は、制御部13が実行する各種のプログラム、及び、制御部13の処理に必要な各種のデータを記憶する。記憶部12には、画像記憶部120、ユーザDB121、サーバプログラム122、学習モデル123、質問情報記憶部124、及びアクション情報記憶部125が格納される。 The storage unit 12 is realized by the memory 102 and the storage 103 . The storage unit 12 stores various programs executed by the control unit 13 and various data necessary for processing of the control unit 13 . The storage unit 12 stores an image storage unit 120, a user DB 121, a server program 122, a learning model 123, a question information storage unit 124, and an action information storage unit 125. FIG.

画像記憶部120は、撮影装置20から受信し、情報処理装置10にて選別された画像を記憶する。画像記憶部120は、例えば撮影装置20が設置された施設の識別子(ID)、撮影装置20が複数設置される場合には各撮影装置20のID、及び、画像が撮影された日時等により複数の画像を分類して記憶する。また本実施形態において画像記憶部120は、画像に写された人の識別結果、並びに、この人の表情又は行動等の識別結果等の情報を付随情報として画像に付して記憶してもよい。なお、本実施形態において、画像記憶部120は、画像記憶部120選別された画像に記憶するが、これに替えて、撮影装置20が撮影した実体である画像を記憶したり、撮影装置20が撮影した実体である画像を記憶する構成を別途設けてもよい。 The image storage unit 120 stores images received from the imaging device 20 and selected by the information processing device 10 . The image storage unit 120 stores a plurality of images according to, for example, the identifier (ID) of the facility where the image capturing device 20 is installed, the ID of each image capturing device 20 when multiple image capturing devices 20 are installed, and the date and time when the image was captured. images are classified and stored. Further, in the present embodiment, the image storage unit 120 may store information such as the identification result of the person shown in the image and the identification result of the person's facial expression or behavior as accompanying information attached to the image. . Note that in the present embodiment, the image storage unit 120 stores the selected images in the image storage unit 120, but instead stores the actual images captured by the imaging device 20, or the images captured by the imaging device 20. A separate configuration may be provided to store an image that is a photographed entity.

ユーザDB121は、本実施形態に係る情報処理システム1が提供するサービスについて利用登録を行ったユーザに関する情報を記憶するデータベースである。ユーザDB121について、図5を用いて説明する。 The user DB 121 is a database that stores information about users who have registered for use of services provided by the information processing system 1 according to this embodiment. User DB 121 will be described with reference to FIG.

図5は、ユーザDB121の一構成例を示す模式図である。本実施形態に係るユーザDB121は、例えば、「ユーザID」、「施設ID」、及び「対象者」の情報を対応付けて記憶する。「ユーザID」は、本実施形態に係る情報処理システム1が提供するサービスを利用するユーザに対して一意に付された識別情報である。上述したように、ユーザは、例えば、保育園を利用する子供の保護者を含み、本例ではユーザIDとして保護者001、保護者002等のIDが付されている。なお、図5に例示した「ユーザID」は一例であり、例えば保育士も本システムを利用する場合には、「ユーザID」は、保育士のIDをも含み得る。 FIG. 5 is a schematic diagram showing a configuration example of the user DB 121. As shown in FIG. The user DB 121 according to the present embodiment stores, for example, "user ID", "facility ID", and "subject" information in association with each other. A “user ID” is identification information uniquely attached to a user who uses a service provided by the information processing system 1 according to this embodiment. As described above, users include, for example, guardians of children who use a nursery school, and in this example, IDs such as guardian 001 and guardian 002 are assigned as user IDs. Note that the "user ID" illustrated in FIG. 5 is just an example. For example, if a nursery teacher also uses this system, the "user ID" may also include the nursery teacher's ID.

「施設ID」は、施設に対して一意に付された識別情報である。本例では施設IDとして保育園a等のIDが付されている。 “Facility ID” is identification information uniquely attached to a facility. In this example, an ID such as nursery school a is assigned as the facility ID.

「対象者」は、施設に設置された撮影装置20による撮影の対象となる利用者(子供)に関する情報であり、ユーザが画像を閲覧等することが可能な対象者に関する情報である。「対象者」には、例えば、名前が含まれ得る。名前は、対象者の本名、又は愛称等であり、本例では「ひなちゃん」、「たくやくん」等の愛称が設定されている。なお、図5に例示した「対象者」は一例であり、例えば、対象者の顔写真等から抽出された、対象者の顔の特徴を特徴量等の情報を含んでもよい。 The “target person” is information about a user (child) who is a target of imaging by the imaging device 20 installed in the facility, and is information about a target person whose images can be browsed by the user. A "subject" can include, for example, a name. The name is the subject's real name, nickname, or the like, and in this example, nicknames such as "Hina-chan" and "Takuya-kun" are set. Note that the “subject” illustrated in FIG. 5 is only an example, and may include information such as the facial features of the subject extracted from the subject's face photograph or the like.

なお、ユーザDB121の構成は、図示のものに限らない。ユーザDB121には、上記の情報以外にも、例えば、ユーザの名前、施設の名前、端末装置30に付されたID、ユーザの住所、電話番号、もしくはメールアドレス等の連絡先、又は、サービスに対するログイン用のパスワード等の種々の情報が記憶され得る。 Note that the configuration of the user DB 121 is not limited to that illustrated. In addition to the above information, the user DB 121 stores, for example, the name of the user, the name of the facility, the ID attached to the terminal device 30, the contact information such as the user's address, telephone number, or e-mail address, or information about the service Various information may be stored, such as passwords for logins.

次に、記憶部12の機能構成に関する説明にもどり、サーバプログラム122について説明する。本実施形態においてサーバプログラム122は、上述したように、プロセッサ101より実行されることにより、情報処理装置10の各構成を制御し、情報処理装置10の機能を実現するものである。サーバプログラム122は、メモリカード、又はディスクメディア109等の記録媒体に記録された態様で提供され、情報処理装置10が、提供されたサーバプログラム122を取得して記憶部12に記憶する。ただし、このサーバプログラム122は、例えば、情報処理装置10の製造段階において記憶部12に書き込まれてもよい。 Next, returning to the description of the functional configuration of the storage unit 12, the server program 122 will be described. In this embodiment, the server program 122 is executed by the processor 101 to control each component of the information processing apparatus 10 and implement the functions of the information processing apparatus 10, as described above. The server program 122 is provided in a form recorded in a recording medium such as a memory card or disk media 109 , and the information processing apparatus 10 acquires the provided server program 122 and stores it in the storage unit 12 . However, the server program 122 may be written in the storage unit 12 at the manufacturing stage of the information processing device 10, for example.

また、例えば、サーバプログラム122は、遠隔の他のサーバ装置等により配信されてもよく、この場合、情報処理装置10は、配信されるサーバプログラム122をネットワークNを介して取得してもよい。また、例えば、サーバプログラム122は、ディスクメディア109等の記録媒体に記録されたものをドライブ装置106等が読み出して情報処理装置10の記憶部12に書き込まれてもよい。 Further, for example, the server program 122 may be distributed by another remote server device or the like, and in this case, the information processing device 10 may acquire the distributed server program 122 via the network N. Further, for example, the server program 122 may be recorded in a recording medium such as the disc medium 109 and read by the drive device 106 or the like and written in the storage unit 12 of the information processing device 10 .

学習モデル123は、本実施形態において用いる様々な学習モデルであり、詳しくは後述する。対象者の感情とユーザのアクションとの関係等を学習しており、対象者の感情に適したアクションを出力するように予め機械学習された学習済みの学習モデルである。 The learning model 123 is various learning models used in this embodiment, and will be described later in detail. It is a learning model that has learned the relationship between the subject's emotion and the user's action, etc., and has been machine-learned in advance so as to output an action suitable for the subject's emotion.

この学習モデルを、単に学習モデル、又はモデルともいう。モデルの学習処理及び再学習処理は、例えば、情報処理装置10の制御部13の後述する学習部137により行われるが、これに限られない。モデルの学習処理及び再学習処理は、情報処理装置10以外の他の装置で行われ、情報処理装置10に提供されてもよい。なお、記憶部12の学習モデル123には、学習済みモデルに付随する重み等の情報も併せて格納される。 This learning model is simply called a learning model or a model. Model learning processing and relearning processing are performed by, for example, a later-described learning unit 137 of the control unit 13 of the information processing apparatus 10, but are not limited to this. The model learning process and relearning process may be performed by a device other than the information processing device 10 and provided to the information processing device 10 . Note that the learning model 123 of the storage unit 12 also stores information such as weights attached to the learned model.

また、このモデルは、例えば、DNN(Deep Neural Network)、RNN(Recurrent Neural Network)、CNN(Convolutional Neural Network)、LSTM(Long Short-Term Memory)等のニューラルネットワークであるが、これに限られない。モデルは、決定木、SVM(Support Vector Machine)等の学習モデルであってもよい。また、モデルの学習方法は、例えば、勾配降下法、確率的勾配降下法、又は誤差逆伝播法であるが、これに限られない。 Further, this model is, for example, a neural network such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), CNN (Convolutional Neural Network), LSTM (Long Short-Term Memory), etc., but is not limited thereto. . The model may be a learning model such as a decision tree or SVM (Support Vector Machine). The model learning method is, for example, gradient descent, stochastic gradient descent, or error backpropagation, but is not limited thereto.

質問情報記憶部124は、ユーザに対して投げかける(表示する)質問や、当該質問の表示に用いるアイコンや文字列等を含む画像や文字列を記憶するデータベースである。 The question information storage unit 124 is a database that stores questions to be posed (displayed) to the user, and images and character strings including icons and character strings used for displaying the questions.

アクション情報記憶部125は、提示(表示)するアクションや、当該アクションの表示に用いるアイコン等の画像を記憶するデータベースである。このアクション情報記憶部125に記憶された情報は、後述する第3質問に対する回答の選択肢として表示される情報である。なお、本実施形態では、後述する第1回答に対応させて、アクション情報記憶部125から複数のアクション(第3質問に対する回答の選択肢)を抽出しているが、これに替えて、第2回答に対応させて複数のアクションを抽出してもよい。 The action information storage unit 125 is a database that stores actions to be presented (displayed) and images such as icons used to display the actions. The information stored in the action information storage unit 125 is information displayed as options for answering a third question, which will be described later. In this embodiment, a plurality of actions (answer options for the third question) are extracted from the action information storage unit 125 in association with the first answer, which will be described later. A plurality of actions may be extracted corresponding to .

次に、情報処理装置10の制御部13について説明する。この制御部13は、通信部11から受信したデータを処理して、その処理結果を通信部11へ与える処理を行う。制御部13は、画像受信部130、画像識別部131、画像選別部132、画像送信部133、質問送信部134、回答受信部135、アクション送信部136、及び学習部137を含む。本実施形態に係る制御部13は、記憶部12に記憶されたサーバプログラム122を読み出して実行することにより、上述の画像受信部130、画像識別部131、画像選別部132、画像送信部133、質問送信部134、回答受信部135、アクション送信部136、及び学習部137等が、ソフトウェア的な機能部として制御部13に実現される。 Next, the control unit 13 of the information processing device 10 will be described. The control unit 13 processes data received from the communication unit 11 and provides the processing result to the communication unit 11 . The control unit 13 includes an image reception unit 130 , an image identification unit 131 , an image selection unit 132 , an image transmission unit 133 , a question transmission unit 134 , an answer reception unit 135 , an action transmission unit 136 and a learning unit 137 . By reading and executing the server program 122 stored in the storage unit 12, the control unit 13 according to the present embodiment performs the above-described image receiving unit 130, image identification unit 131, image selection unit 132, image transmission unit 133, A question transmission unit 134, an answer reception unit 135, an action transmission unit 136, a learning unit 137, and the like are implemented in the control unit 13 as software functional units.

画像受信部130は、撮影装置20が送信する画像を通信部11にて受信する処理を行う。例えば、画像受信部130は、受信した画像に付されたデータに基づいて、画像の撮影日時、撮影した撮影装置20のIDや、撮影装置20が設置された施設のID等に対応付けて、画像を分類して記憶部12に一時的に記憶する。なお、画像受信部130によって記憶部12に一時的に記憶された画像は、後述する画像選別処理により選別がなされ、記憶部12の画像記憶部120に記憶して蓄積されるか、又は、記憶部12から消去される。 The image receiving unit 130 performs processing for receiving an image transmitted by the imaging device 20 at the communication unit 11 . For example, based on the data attached to the received image, the image receiving unit 130 associates the date and time when the image was captured, the ID of the image capturing device 20 that captured the image, the ID of the facility where the image capturing device 20 is installed, etc. Images are classified and temporarily stored in the storage unit 12 . The images temporarily stored in the storage unit 12 by the image receiving unit 130 are sorted by image sorting processing to be described later, and are stored and accumulated in the image storage unit 120 of the storage unit 12, or stored. It is deleted from the part 12 .

画像識別部131は、撮影装置20から取得した画像に対して、画像に写された人物を検出する処理、画像に写された人物が誰であるかを識別する処理、及び、画像に写された人物の表情を識別する処理等を行う。画像識別部131は、これらの処理結果に関する情報を画像にメタデータとして付してもよい。なお、本実施形態においては、これらの処理を情報処理装置10が行うものとするが、これに限るものではなく、これらの処理の一部又は全部を予め撮影装置20が行ってもよい。また、画像識別部131は、画像に写された人物の行動を識別する処理も行ってもよい。 The image identification unit 131 performs a process of detecting a person in the image acquired from the photographing device 20, a process of identifying the person in the image, and a process of identifying the person in the image. It performs processing such as identifying the facial expression of a person. The image identification unit 131 may attach information about these processing results to the image as metadata. In this embodiment, the information processing apparatus 10 performs these processes, but the present invention is not limited to this, and some or all of these processes may be performed in advance by the photographing apparatus 20 . In addition, the image identification unit 131 may also perform processing for identifying behavior of a person captured in the image.

画像識別部131は、例えば、予め機械学習がなされた学習モデルを用いて、画像から人物を検出する。学習モデルは、例えば画像のデータを入力として受け付け、この画像に含まれる人物が写された画像領域(を示す座標等のデータ)を出力するように予め機械学習がなされる。学習モデルは、例えば画像のデータと、この画像に含まれる人物が写された画像領域を示すデータとが対応付けられた教師データを用いて機械学習がなされる。 The image identification unit 131 detects a person from an image, for example, using a learning model that has undergone machine learning in advance. The learning model receives, for example, image data as an input, and performs machine learning in advance so as to output (data such as coordinates indicating) an image area in which a person included in the image is shown. The learning model is machine-learned using teacher data in which, for example, image data and data indicating an image region in which a person included in the image is associated with each other.

また、保育園、又は幼稚園等の施設にて撮影された画像を基に検出する対象の人物(対象者)を子供とする場合、子供が撮影された画像データを用いて教師データを作成することにより、子供の検出精度を高めることが期待できる。画像識別部131は、撮影装置20から取得した画像を学習モデルへ入力し、学習モデルが出力する人物の検出結果を取得することで、画像に写された人物を検出する処理を行う。なお画像識別部131は、画像から人物が検出されなかった場合、即ち画像に人物が写されていない場合、この画像を除去して後続の処理の対象から外す。 In addition, when the target person (target person) to be detected based on the image taken at a nursery school or kindergarten is a child, by creating training data using the image data of the child , can be expected to increase the detection accuracy of children. The image identification unit 131 inputs an image acquired from the photographing device 20 to the learning model, acquires a person detection result output by the learning model, and performs processing for detecting a person in the image. If a person is not detected from the image, that is, if no person is shown in the image, the image identification unit 131 removes this image from the subsequent processing.

また、画像識別部131は、例えば画像に写された人物の顔の特徴量に基づいて、画像に写された人物が誰であるかを識別する処理を行ってもよい。この場合、画像識別部131は、例えば画像に写された人物の顔の特徴量を抽出し、ユーザDB121に登録された対象者の特徴量との比較を行う。 Further, the image identification unit 131 may perform a process of identifying who the person in the image is, for example, based on the feature amount of the face of the person in the image. In this case, the image identification unit 131 extracts, for example, the feature amount of the face of the person in the image, and compares it with the feature amount of the subject registered in the user DB 121 .

また、画像識別部131は、例えば、予め機械学習がなされた学習モデルを用いて、画像に写された人物の表情を識別する処理を行う。例えば、学習モデルは、人物が写された画像を入力として受け付けて、この画像に写された人物の表情が所定の表情である確信度を出力するように予め機械学習がなされる。所定の表情については予め定義し得るが、例えば、笑顔、怒り又は悲しみ等である。この所定の表情については後述する。画像識別部131は、例えば1種類の表情について確信度を出力する学習モデルを複数用意して複数種類の表情の識別を行ってもよく、また例えば複数種類の表情について確信度をそれぞれ出力する1つの学習モデルを用意して識別を行ってもよい。 In addition, the image identification unit 131 uses, for example, a machine-learned learning model in advance to perform a process of identifying the facial expression of a person depicted in the image. For example, the learning model accepts an image of a person as an input, and performs machine learning in advance so as to output a degree of certainty that the facial expression of the person in the image is a predetermined facial expression. Predetermined facial expressions may be predefined, such as smile, anger, or sadness. This predetermined facial expression will be described later. The image identification unit 131 may, for example, prepare a plurality of learning models that output certainty for one type of facial expression to identify a plurality of types of facial expressions. The classification may be performed by preparing two learning models.

学習モデルは、例えば画像のデータと、この画像に写された人物の顔の表情が所定の表情であるか否かを示すラベル(所定の表情であればラベル1、所定の表情以外であればラベル0など)とを対応付けた教師データを用いて機械学習がなされる。本実施形態において画像識別部131は、撮影装置20が撮影した画像を学習モデルへ入力し、学習モデルが出力する各表情の確信度を取得し、確信度が最も高い表情を画像に写された人物の表情と判断する。なお最も高い確信度が閾値を超えない場合には、画像識別部131は、画像に写された人物の表情が、学習モデルにて識別できるいずれの表情でもないと判断してよい。また、画像識別部131は、例えば予め機械学習がなされた学習モデルを用いて、画像に写された人物が行っている行動を識別する処理を行ってもよい。 The learning model includes, for example, image data and a label indicating whether or not the facial expression of a person captured in the image is a predetermined expression (label 1 if the expression is predetermined, label 1 if the expression is not the predetermined expression, (label 0, etc.) is used to perform machine learning. In this embodiment, the image identification unit 131 inputs images captured by the imaging device 20 to the learning model, acquires the confidence level of each facial expression output by the learning model, and selects the facial expression with the highest confidence level captured in the image. Judging from a person's facial expression. Note that when the highest degree of certainty does not exceed the threshold, the image identification unit 131 may determine that the facial expression of the person captured in the image is not any facial expression that can be identified by the learning model. Further, the image identification unit 131 may perform a process of identifying an action performed by a person depicted in the image, for example, using a learning model that has undergone machine learning in advance.

画像選別部132は、画像識別部131による識別結果に基づいて、撮影装置20から取得した画像の中から、画像記憶部120に記憶して蓄積する画像を選別する処理を行う。画像選別部132は、各所定の表情について、所定数の画像を選定する。また、例えば画像選別部132は、スケジュールの各イベントについて、1人の利用者について所定数の画像を選別する。このときに画像選別部132は、例えば表情を識別する際に学習モデルが出力した確信度が高い画像を上位から所定数だけ選別することができる。また、例えば画像選別部132は、5分又は10分等の間隔で確信度が最も高い画像を選別してもよい。画像選別部132による画像選別の方法は、上記の方法に限らず、どのような方法が採用されてもよい。 The image selection unit 132 performs a process of selecting images to be stored and accumulated in the image storage unit 120 from images acquired from the imaging device 20 based on the identification result of the image identification unit 131 . The image selection unit 132 selects a predetermined number of images for each predetermined facial expression. Also, for example, the image selection unit 132 selects a predetermined number of images for one user for each event in the schedule. At this time, the image selection unit 132 can select, for example, a predetermined number of images having a high degree of certainty output by the learning model when identifying facial expressions. Further, for example, the image selection unit 132 may select an image with the highest degree of certainty at intervals of 5 minutes, 10 minutes, or the like. The image sorting method by the image sorting unit 132 is not limited to the above method, and any method may be adopted.

画像送信部133は、画像記憶部120に記憶した画像をユーザの端末装置30へ送信する処理を行う。画像送信部133は、端末装置30から画像の送信要求と共に与えられる条件を取得し、取得した条件を満たす画像を画像記憶部120に記憶された複数の画像の中から抽出して、要求元の端末装置30へ送信する。端末装置30から与えられる条件は、例えば「ポジティブ(な感情)」等である。画像送信部133は、画像識別部131が各画像に付したメタデータに基づいて、端末装置30からの条件を満たす画像を抽出してもよい。 The image transmission unit 133 performs processing for transmitting the image stored in the image storage unit 120 to the terminal device 30 of the user. The image transmission unit 133 acquires a condition given from the terminal device 30 together with an image transmission request, extracts an image that satisfies the acquired condition from a plurality of images stored in the image storage unit 120, and extracts the image from the request source. Send to the terminal device 30 . The condition given from the terminal device 30 is, for example, "positive (emotion)". The image transmission unit 133 may extract images satisfying the conditions from the terminal device 30 based on the metadata attached to each image by the image identification unit 131 .

質問送信部134は、質問情報記憶部124に記憶した質問と、当該質問の表示に用いる文字列や文字列を含むアイコン等の画像とをユーザの端末装置30へ送信する処理を行う。質問送信部134は、端末装置30から、ユーザによる画像選択と共に与えられる条件を取得し、取得した条件を満たす質問と、当該質問の表示に用いる文字列や文字列を含むアイコン等の画像とを質問情報記憶部124の中から抽出して、要求元の端末装置30へ送信する。例えば、端末装置30によって所定の画像が選択された場合質問送信部134は、画像識別部131が各画像に付したメタデータ等に基づいて、端末装置30から質問(第1質問)と、当該質問に対する回答として、例えば、「ポジティブ」、及び「ネガティブ」等の感情を示す文字列を含むアイコンを選択肢として左右に表示する。例えば「ポジティブ(な感情)」の条件が与えられた場合、画像送信部133は、画像識別部131が各画像に付したメタデータ等に基づいて、端末装置30からポジティブな感情に関連する質問と、ポジティブな感情の表示に用いるアイコンとを抽出してもよい。 The question transmission unit 134 performs a process of transmitting the question stored in the question information storage unit 124, a character string used to display the question, and an image such as an icon including the character string to the terminal device 30 of the user. The question transmission unit 134 acquires conditions given together with image selection by the user from the terminal device 30, and transmits a question that satisfies the acquired conditions, a character string used to display the question, an image such as an icon containing the character string, and the like. It extracts from the question information storage unit 124 and transmits it to the terminal device 30 that is the source of the request. For example, when a predetermined image is selected by the terminal device 30, the question transmission unit 134 sends a question (first question) from the terminal device 30 based on metadata or the like attached to each image by the image identification unit 131, As an answer to the question, for example, icons including character strings indicating emotions such as "positive" and "negative" are displayed on the left and right as options. For example, when a condition of “positive emotion” is given, the image transmission unit 133 receives a question related to positive emotion from the terminal device 30 based on the metadata or the like attached to each image by the image identification unit 131. and an icon used to display positive emotions.

回答受信部135は、ユーザの端末装置30が送信する回答(後述する、第1回答,第2回答,第3回答)を通信部11にて受信する処理を行う。例えば、画像受信部130は、受信した回答と共に与えられる条件を取得する。 The reply receiving unit 135 performs a process of receiving the reply (the first reply, the second reply, and the third reply, which will be described later) transmitted by the terminal device 30 of the user in the communication unit 11 . For example, the image receiving unit 130 acquires conditions given with the received answer.

アクション送信部136は、アクション情報記憶部125に記憶したアクションと当該アクションの表示に用いるアイコン等の画像とをユーザの端末装置30へ送信する処理を行う。アクション送信部136は、端末装置30から質問(後述する第1質問)の回答(後述する第1回答)のための選択肢と共に与えられる条件を取得し、質問と共に、取得した条件を満たすアクションとアクションの表示に用いるアイコン等の画像とをアクション情報記憶部125に記憶された複数のアクションやアイコン等の画像の中から抽出して、要求元の端末装置30へ送信する。 The action transmission unit 136 performs processing for transmitting the action stored in the action information storage unit 125 and an image such as an icon used to display the action to the terminal device 30 of the user. The action transmission unit 136 acquires conditions given from the terminal device 30 along with options for answering (first answers to be described later) to questions (first questions to be described later), and together with the questions, actions and actions that satisfy the acquired conditions. images such as icons used for display are extracted from the plurality of images such as actions and icons stored in the action information storage unit 125 and transmitted to the terminal device 30 that is the source of the request.

端末装置30から与えられる条件が、例えば「ポジティブ」である場合、アクション送信部136は、アクション情報記憶部125から、質問と同時に、「ポジティブ」を詳細化した感情を示す選択肢を要求元の端末装置30へ送信する。一方、端末装置30から与えられる条件が、例えば「ネガティブ」である場合、アクション送信部136は、アクション情報記憶部125から、質問と同時に、「ネガティブ」を詳細化した感情を示す選択肢を要求元の端末装置30へ送信する。アクション送信部136により送信される質問と、受信される回答とを、それぞれ、第3質問、及び第3回答ともいう。 When the condition given from the terminal device 30 is, for example, “positive”, the action transmission unit 136 sends the question and at the same time to the action information storage unit 125, the option indicating the emotion detailed “positive”. Send to device 30 . On the other hand, if the condition given from the terminal device 30 is, for example, “negative”, the action transmission unit 136 requests the option indicating the emotion detailed “negative” from the action information storage unit 125 at the same time as the question. to the terminal device 30 of . The question transmitted by the action transmission unit 136 and the received answer are also called a third question and a third answer, respectively.

学習部137は、記憶部12に記憶される、上述した種々の学習モデル123に対して教師データを入力することにより、当該学習モデルを学習させる(訓練する)。 The learning unit 137 learns (trains) the various learning models 123 described above stored in the storage unit 12 by inputting teacher data to the learning models 123 .

上述した通り、情報処理装置10は、画像受信部130~学習部137を備えるが、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。 As described above, the information processing apparatus 10 includes the image receiving unit 130 to the learning unit 137, but is not limited to the above configuration. An input unit, a display unit for displaying an image, or the like may be included.

次に、端末装置30の機能構成について説明する。図6は、端末装置30の機能構成の一例を示す図である。図6に例示するように、端末装置30は、通信部31と、記憶部32と、制御部33と、操作部34と、表示部35と、を備える。 Next, the functional configuration of the terminal device 30 will be described. FIG. 6 is a diagram showing an example of the functional configuration of the terminal device 30. As shown in FIG. As illustrated in FIG. 6 , the terminal device 30 includes a communication section 31 , a storage section 32 , a control section 33 , an operation section 34 and a display section 35 .

通信部31は、通信I/F304により実現される。通信部31は、ネットワークNを介して、情報処理装置10や撮影装置20との間でデータの送受信を行う。 Communication unit 31 is implemented by communication I/F 304 . The communication unit 31 transmits and receives data to and from the information processing device 10 and the imaging device 20 via the network N. FIG.

記憶部32は、メモリ302及びストレージ303により実現される。記憶部32は、ユーザプログラム320を備え、選択情報や受信した画像等を含む各種の情報を記憶してもよい。本実施形態において、ユーザプログラム320は遠隔のサーバ装置等により配信され、これを端末装置30が通信にて取得し、記憶部32に記憶する。ただしユーザプログラム320は、例えば、端末装置30の製造段階において記憶部32に書き込まれてもよい。例えば、ユーザプログラム320は、メモリカード、又は光ディスク等の記録媒体に記録されたユーザプログラム320を端末装置30が読み出して記憶部32に記憶してもよい。例えば、ユーザプログラム320は、記録媒体に記録されたものを書込装置が読み出して端末装置30の記憶部32に書き込んでもよい。また、ユーザプログラム320は、ネットワークを介した配信の態様で提供されてもよく、記録媒体に記録された態様で提供されてもよい。 The storage unit 32 is implemented by the memory 302 and storage 303 . The storage unit 32 may include a user program 320 and store various types of information including selection information and received images. In the present embodiment, the user program 320 is distributed by a remote server device or the like, acquired by the terminal device 30 through communication, and stored in the storage unit 32 . However, the user program 320 may be written into the storage unit 32 during the manufacturing stage of the terminal device 30, for example. For example, the user program 320 may be stored in the storage unit 32 after the terminal device 30 reads the user program 320 recorded on a recording medium such as a memory card or an optical disc. For example, the user program 320 may be recorded on a recording medium, read by a writing device, and written to the storage unit 32 of the terminal device 30 . Also, the user program 320 may be provided in the form of distribution via a network, or may be provided in the form of being recorded on a recording medium.

制御部33は、プロセッサ301がユーザプログラム320等のプログラムを実行し、他のハードウェア構成と協働することにより実現される。制御部33は、端末装置30の動作全体を制御する。この制御部33は、表示制御部330と、条件取得部331と、を備える。 The control unit 33 is implemented by the processor 301 executing programs such as the user program 320 and cooperating with other hardware configurations. The control unit 33 controls the overall operation of the terminal device 30 . The control section 33 includes a display control section 330 and a condition acquisition section 331 .

また、例えば、サーバプログラム122は、遠隔の他のサーバ装置等により配信されてもよく、この場合、情報処理装置10は、配信されるサーバプログラム122をネットワークNを介して取得してもよい。また、例えば、サーバプログラム122は、ディスクメディア109等の記録媒体に記録されたものをドライブ装置106等が読み出して情報処理装置10の記憶部12に書き込まれてもよい。 Further, for example, the server program 122 may be distributed by another remote server device or the like, and in this case, the information processing device 10 may acquire the distributed server program 122 via the network N. Further, for example, the server program 122 may be recorded in a recording medium such as the disc medium 109 and read by the drive device 106 or the like and written in the storage unit 12 of the information processing device 10 .

表示制御部330は、表示部35に対して種々の文字、又は画像等を表示するための制御を行う。本実施形態において表示制御部330は、後述のUI(User Interface)画面を表示部35に表示すると共に、このUI画面の所定領域に情報処理装置10から取得した画像を表示する。 The display control unit 330 controls the display unit 35 to display various characters or images. In this embodiment, the display control unit 330 displays a UI (User Interface) screen, which will be described later, on the display unit 35, and also displays an image acquired from the information processing apparatus 10 in a predetermined area of the UI screen.

条件取得部331は、表示制御部330がUI画面を表示部35に表示している際に、操作部34に対するユーザの操作に基づいて、UI画面に表示する一又は複数の画像に関する条件を取得する処理を行う。本実施形態に係る情報処理システム1では、表示する画像に関する条件として、選択された画像、回答、アイコン等の画像等を受け付けてもよい。条件取得部331は、取得した条件を付した画像の送信要求を情報処理装置10へ与える。この要求に応じて情報処理装置10は条件に適合する画像を端末装置30へ送信し、この画像を受信した端末装置30の表示制御部330が画像を表示する。 The condition acquisition unit 331 acquires conditions regarding one or more images to be displayed on the UI screen based on the user's operation on the operation unit 34 while the display control unit 330 is displaying the UI screen on the display unit 35. process. The information processing system 1 according to the present embodiment may accept selected images, answers, images such as icons, etc., as conditions related to images to be displayed. The condition acquisition unit 331 provides the information processing apparatus 10 with an image transmission request attached with the acquired conditions. In response to this request, the information processing device 10 transmits an image that meets the conditions to the terminal device 30, and the display control unit 330 of the terminal device 30 that has received this image displays the image.

操作部34は、端末装置30を使用するユーザからの入力(操作)を受け付け、受け付けた入力を示す操作情報を制御部33に供給する。 The operation unit 34 receives an input (operation) from the user using the terminal device 30 and supplies operation information indicating the received input to the control unit 33 .

表示部35は、上述の制御部33による制御にしたがって種々の画面表示を行う。 The display unit 35 performs various screen displays under the control of the control unit 33 described above.

なお、図示を省略したが、端末装置30は、撮影機能等の他の機能を備えてもよい。 Although illustration is omitted, the terminal device 30 may have other functions such as a photographing function.

<UI画面:画像表示処理>
図7~図11は、本実施形態に係る端末装置30が表示するUI画面の一例を示す模式図である。なお、図7~図11に例示するUI画面は、施設の利用者である「ひなちゃん」の保護者が使用する端末装置30が表示するUI画面の一例である。図7は第1質問表示画面の一例を示す図であり、図8及び図9は第2質問表示画面の一例を示す図であり、図10及び図11は第3質問表示画面の一例を示す図である。また、図8及び図10は、後述する「ポジティブ」を選択した場合のUI画面の一例であり、図9及び図11は後述する「ネガティブ」を選択した場合のUI画面の一例である。
<UI screen: image display processing>
7 to 11 are schematic diagrams showing examples of UI screens displayed by the terminal device 30 according to the present embodiment. The UI screens illustrated in FIGS. 7 to 11 are examples of UI screens displayed by the terminal device 30 used by the guardian of "Hina-chan" who is a user of the facility. 7 shows an example of the first question display screen, FIGS. 8 and 9 show an example of the second question display screen, and FIGS. 10 and 11 show an example of the third question display screen. It is a diagram. 8 and 10 are examples of UI screens when "positive", which will be described later, is selected, and FIGS. 9 and 11 are examples of UI screens, when "negative", which will be described later, is selected.

本実施形態に係る端末装置30が表示するUI画面は、日付表示領域151、主画像表示領域(第1の領域)152、質問表示領域(第2の領域)153、及び副画像表示領域(第3の領域)154等を含んで構成されている。 The UI screen displayed by the terminal device 30 according to the present embodiment includes a date display area 151, a main image display area (first area) 152, a question display area (second area) 153, and a sub-image display area (second area). 3) 154 and the like.

図7に例示するUI画面(第1質問表示画面)の次には、図8又は図9に例示するUI画面(第2質問表示画面)が表示される。図8に例示するUI画面は、図7に例示するUI画面において、「ポジティブ」が選択された場合に表示されるものである。一方、図9に例示するUI画面は、図7に例示するUI画面において、「ネガティブ」が選択された場合に表示されるものである。そして、図8に例示するUI画面の次には、図10に例示するUI画面(第3質問表示画面)が表示される。 After the UI screen (first question display screen) illustrated in FIG. 7, the UI screen (second question display screen) illustrated in FIG. 8 or 9 is displayed. The UI screen illustrated in FIG. 8 is displayed when "Positive" is selected on the UI screen illustrated in FIG. On the other hand, the UI screen illustrated in FIG. 9 is displayed when "negative" is selected in the UI screen illustrated in FIG. After the UI screen illustrated in FIG. 8, a UI screen (third question display screen) illustrated in FIG. 10 is displayed.

この図10に例示する第3質問表示画面は、図7に例示するUI画面において「ポジティブ」が選択された場合に、図8に例示するUI画面の次に表示されるUI画面である。一方、図9に例示するUI画面の次に、図11に例示するUI画面(第3質問表示画面)が表示される。この図10に例示する第3質問表示画面は、図7に例示するUI画面において「ネガティブ」が選択された場合に、図9に例示するUI画面の次に表示されるものである。なお、図9に例示するUI画面の次には、図11に例示するUI画面(第3質問表示画面)が表示される。これらの図7~図11に例示するUI画面は、後述する質問表示領域153に表示される内容が異なっている。 The third question display screen illustrated in FIG. 10 is a UI screen displayed next to the UI screen illustrated in FIG. 8 when "positive" is selected on the UI screen illustrated in FIG. On the other hand, after the UI screen illustrated in FIG. 9, a UI screen (third question display screen) illustrated in FIG. 11 is displayed. The third question display screen illustrated in FIG. 10 is displayed after the UI screen illustrated in FIG. 9 when "negative" is selected on the UI screen illustrated in FIG. After the UI screen illustrated in FIG. 9, a UI screen (third question display screen) illustrated in FIG. 11 is displayed. The UI screens exemplified in FIGS. 7 to 11 differ in content displayed in a question display area 153, which will be described later.

日付表示領域151は、UI画面の上部に設けられており、本例では「2021年31日 Monday」のように年月日及び曜日が表示されている。本実施形態に係る情報処理システム1では、本サービ日付表示領域151を利用するためにユーザが端末装置30にてユーザプログラム320を起動した後、図示のUI画面が表示される。このときにUI画面の日付表示領域151には、例えば、今日の日付が表示される。 The date display area 151 is provided in the upper part of the UI screen, and displays the date and day of the week such as "Monday, 31st, 2021" in this example. In the information processing system 1 according to the present embodiment, after the user starts the user program 320 on the terminal device 30 in order to use the service date display area 151, the illustrated UI screen is displayed. At this time, for example, today's date is displayed in the date display area 151 of the UI screen.

ユーザは施設の撮影装置20が今日(これまで)に撮影した画像を閲覧することができる。ユーザは、日付表示領域151に対するタッチ操作やクリック操作等を行うことによって、日付を変更することができる。端末装置30は、日付表示領域151に対する操作を受け付けた場合に、例えばカレンダー等を表示して日付の選択を受け付ける。日付の選択を受け付けた端末装置30は、この日付の画像を送信する要求を情報処理装置10へ与え、要求に応じて情報処理装置10から送信される画像を受信して主画像表示領域152を表示する。 The user can browse the images captured today (so far) by the imaging device 20 of the facility. The user can change the date by performing a touch operation, a click operation, or the like on the date display area 151 . When the terminal device 30 receives an operation on the date display area 151, the terminal device 30 displays, for example, a calendar and receives selection of a date. The terminal device 30 that accepts the selection of the date gives the information processing device 10 a request to transmit the image of this date, receives the image transmitted from the information processing device 10 in response to the request, and displays the main image display area 152. indicate.

主画像表示領域152は、UI画面において、日付表示領域151の下側に設けられており、本システムが自動的に抽出した1つの画像や、後述の副画像表示領域154にてユーザにより選択された1つの画像を表示する。本実施形態においては、主画像表示領域152に表示される画像を保護者と子供が一緒に閲覧することを想定している。 The main image display area 152 is provided below the date display area 151 on the UI screen, and includes one image automatically extracted by the system or an image selected by the user in the sub-image display area 154 described later. display a single image. In this embodiment, it is assumed that the parent and child view the image displayed in the main image display area 152 together.

また、本実施形態に係る情報処理システム1が記憶及び表示する画像は、静止画像又は動画像のいずれであってもよく、静止画及び動画像が混在していてもよい。端末装置30は、主画像表示領域152に動画像を表示する場合、主画像表示領域152の中央又は下部に再生及び停止等の操作を受け付けるボタン、及び、再生時間を示すスライドバー等を表示する。そして、主画像表示領域152に動画像を表示する場合、再生前に主画像表示領域152に表示される画像は、当該動画像の最初のフレームでなくてもよく、当該動画像の特徴を最もよくあらわしている場面のフレームであってもよい。 Further, the images stored and displayed by the information processing system 1 according to the present embodiment may be either still images or moving images, or may be a mixture of still images and moving images. When displaying a moving image in the main image display area 152, the terminal device 30 displays buttons for receiving operations such as playback and stop, a slide bar indicating the playback time, etc. in the center or bottom of the main image display area 152. . When a moving image is displayed in the main image display area 152, the image displayed in the main image display area 152 before reproduction does not have to be the first frame of the moving image. It may be a frame of a well-represented scene.

質問表示領域153は、上述した主画像表示領域152の下側に設けられており、例えば、質問と共に、回答として、感情を示す文字列や、感情を示すアイコンや文字列を含む画像が選択肢として表示される。端末装置30は、質問表示領域153に表示されたいずれかの選択肢に対するタッチ操作やクリック操作等を受け付けることにより、感情の選択を受け付ける。感情の選択を受け付けた端末装置30は、この感情を示す文字列やアイコン等の画像を送信する要求を情報処理装置10へ与え、当該要求に応じて情報処理装置10から送信される画像を受信して表示する。 The question display area 153 is provided below the above-described main image display area 152. For example, an image containing a character string indicating an emotion, an icon or character string indicating an emotion can be selected as an answer along with the question. Is displayed. The terminal device 30 accepts selection of an emotion by accepting a touch operation, a click operation, or the like on one of the options displayed in the question display area 153 . The terminal device 30 that has accepted the selection of the emotion gives the information processing device 10 a request to transmit an image such as a character string or an icon representing this emotion, and receives an image transmitted from the information processing device 10 in response to the request. to display.

図7に示す第1質問表示画面に例示するように、質問表示領域153は、質問として、「ひなちゃんのこのときの気持ちはどっちかな?」が表示されている。同時に、回答として、「ポジティブ」、及び「ネガティブ」等の感情を示す文字列が選択肢として左右に表示されている。この上述した質問は第1質問、又は第1の質問といい、上述した選択肢は第1の選択候補、又は第1選択候補という。また、この第1の選択候補で選択し得る感情(「ポジティブ」、及び「ネガティブ」)を「第1の感情」という。端末装置30は、質問表示領域153に表示されたいずれかの選択肢に対するタッチ操作やクリック操作等を受け付けることにより、感情の選択を受け付ける。感情の選択を受け付けた端末装置30は、この感情を示す文字列やアイコン等の画像を送信する要求を情報処理装置10へ与え、当該要求に応じて情報処理装置10から送信される画像を受信して表示する。 As exemplified in the first question display screen shown in FIG. 7, the question display area 153 displays the question "How does Hina-chan feel at this time?" At the same time, as answers, character strings indicating emotions such as "positive" and "negative" are displayed on the left and right as options. This above-mentioned question is called the first question, or first question, and the above-mentioned option is called the first choice, or first choice. Emotions (“positive” and “negative”) that can be selected from the first selection candidates are referred to as “first emotions”. The terminal device 30 accepts selection of an emotion by accepting a touch operation, a click operation, or the like on one of the options displayed in the question display area 153 . The terminal device 30 that has accepted the selection of the emotion gives the information processing device 10 a request to transmit an image such as a character string or an icon representing this emotion, and receives an image transmitted from the information processing device 10 in response to the request. to display.

本実施形態では、第1質問表示画面に表示する上述の質問は、保護者と子供とが主画像表示領域152に表示される画像を閲覧しながら回答することを想定している。具体的には、「ひなちゃんのこのときの気持ちはどっちかな?」のような質問は、保護者と子供とが主画像表示領域152に表示される画像を閲覧しながら、保護者が子供にその時の気持ちを問うものであるから、例えば、保護者が第1質問表示画面に表示される上述の質問をみながら、口頭で子供に問うこともできる。また、UI画面の質問の近くに、当該質問への理解を助けるコメント(例えば、「この時の気持ちを押してね。」)を添えることのできる領域を設けてもよい。 In this embodiment, it is assumed that the above-mentioned questions displayed on the first question display screen are answered while the parent and child browse the images displayed in the main image display area 152 . Specifically, a question such as "Which is Hina-chan's feeling at this time?" Since it asks the child's feelings at that time, for example, the parent can verbally ask the child while looking at the above-mentioned question displayed on the first question display screen. In addition, an area may be provided near the question on the UI screen in which a comment that helps the user understand the question (for example, "Press your feelings at this time.") can be added.

図8、及び図9に示す第2質問表示画面に例示するように、質問表示領域153は、質問として、「ひなちゃんのこのときの気持ちはどれかな?」が表示されている。図8に例示するUI画面では、この質問と共に、回答として、「幸せ」、「楽しい」、「満足」、及び「嬉しい」等のポジティブな感情を示す文字列と画像とが選択肢として左右に表示されている。また、図9に例示するUI画面では、この質問と共に、回答として、「怒っている」、「怖い」、「悲しい」、及び「つらい」等のネガティブな感情を示す文字列と画像とが選択肢として左右に表示されている。この上述した質問は第2質問、又は第2の質問といい、上述した選択肢は第2の選択候補、又は第2選択候補という。第2の質問は、第1の質問に関する回答を詳細に問うものである。また、この第3の選択候補で選択し得る感情を「第2の感情」という。 As exemplified in the second question display screens shown in FIGS. 8 and 9, the question display area 153 displays the question "How does Hina-chan feel at this time?" In the UI screen illustrated in FIG. 8, along with this question, character strings and images representing positive emotions such as "happiness", "fun", "satisfaction", and "happy" are displayed on the left and right as options as answers. It is In the UI screen illustrated in FIG. 9, along with this question, as answers, character strings and images indicating negative emotions such as "angry", "scary", "sad", and "hard" are selected. are displayed to the left and right as This above-mentioned question is called the second question, or second question, and the above-mentioned option is called the second choice, or second choice. The second question asks for detailed responses to the first question. An emotion that can be selected from the third selection candidates is called a "second emotion".

すなわち、図7に例示した第1質問表示画面において、例えば「ポジティブ」が選択された場合には、次に表示される第2質問表示画面(図8参照)において具体的にどういったポジティブの感情であるのかを問うような具体的な質問を表示する。一方、図7に例示した第1質問表示画面において、例えば「ネガティブ」が選択された場合には、次に表示される第2質問表示画面(図9参照)において具体的にどういったネガティブの感情であるのかを問うような具体的な質問を表示する。 That is, in the first question display screen illustrated in FIG. 7, for example, when "positive" is selected, what kind of positive is specifically displayed in the second question display screen (see FIG. 8) displayed next? Display a specific question such as whether it is an emotion. On the other hand, in the first question display screen illustrated in FIG. 7, for example, when "negative" is selected, what kind of negative is specifically displayed in the second question display screen (see FIG. 9) displayed next? Display a specific question such as whether it is an emotion.

これらの質問(第2質問)はいずれも、保護者が子供のその時の感情を具体的に掘り下げて問うものである。これらの質問についても同様に、本実施形態では、保護者と子供とが主画像表示領域152に表示される画像を閲覧しながら具体的な感情を回答することを想定している。例えば、保護者は、回答の選択肢(「怒っている」、「怖い」、「悲しい」、及び「つらい」)を見て、子供に対し、「そのときの気持ちは怒っているかな?怖かったかな?悲しかったかな?それとも、つらかったかな?」と口頭で子供に問うこともできる。なお、図示する第1質問や第2質問の文言は一例にすぎず、例えば、同等の趣旨を問うために別の文言を用いてもよいし、文言ではなく音声にて質問を与えてもよい。 All of these questions (the second question) are questions in which the parent specifically delves into the feelings of the child at that time. As for these questions, in the present embodiment, it is assumed that the parent and the child view the images displayed in the main image display area 152 and answer specific emotions. For example, parents can look at the answer options (“Angry”, “Scary”, “Sad”, and “Hard”) and ask their child, “Are you feeling angry? Was it sad? Or was it hard?" The wording of the first question and the second question shown in the figure is only an example, and for example, different wording may be used to ask the same meaning, or the question may be given by voice instead of wording. .

このような具体的な感情を選択肢として用意することにより、回答する人物である子供や、質問を投げかける保護者の負荷が少なくなる。また、信州大学の『信州心理臨床紀要』に掲載された論文によれば、自身で思いついた言葉でなく選択肢をもとにして感情のラベリングすることにより、ストレス軽減の効果がある。本システムにおいて、ネガティブとポジティブのそれぞれについて、選択肢をもとにした感情のラベリングを行うことで、ストレス軽減につながる可能性がある。すなわち、ネガティブな経験をした子供に、その時の画像を用いて具体的な感情を選択してもらうことで、子供は保護者にストレスを軽減してもらったと感じられる可能性が高い。 By preparing such specific emotions as options, the burden on the child who is the person who answers and the guardian who poses the question is reduced. In addition, according to a paper published in Shinshu University's "Shinshu Psychological Clinical Bulletin", labeling emotions based on choices rather than words that come up by oneself has the effect of reducing stress. In this system, it is possible to reduce stress by labeling emotions based on options for both negative and positive. In other words, by asking a child who has had a negative experience to select a specific emotion using the image at that time, there is a high possibility that the child will feel that their parents have reduced their stress.

このように、本システムでは、親子で閲覧できる画像と、その画像に対する質問や回答の選択肢を親子に与えることにより、会話を促すことが期待できる。 In this way, the present system can be expected to promote conversation by providing the parent and child with an image that can be viewed by the parent and child and options for questions and answers to the image.

なお、本実施形態では、第1質問の回答として2つの選択肢を与えるものとしたが、これに限定されず、例えば、2つよりも多い選択肢を与えてもよい。また、本実施形態では、文字列を含むアイコンを選択肢として表示するものとしたが、これに替えて画像を表示するものとしてもよい。また、本実施形態では、第2質問の回答として4つの選択肢を与えるものとしたが、これに限定されず、例えば、4つ未満、又は4つよりも多い選択肢を与えてもよい。また、本実施形態では、感情を示すアイコンを含む画像を選択肢として表示するものとしたが、これに替えて文字列を表示するものとしてもよい。 In this embodiment, two options are given as an answer to the first question, but the present invention is not limited to this, and for example, more than two options may be given. Also, in the present embodiment, an icon including a character string is displayed as an option, but an image may be displayed instead. Also, in the present embodiment, four options are given as the answer to the second question, but the present invention is not limited to this, and for example, less than four or more than four options may be given. Also, in the present embodiment, an image including an icon representing an emotion is displayed as an option, but a character string may be displayed instead.

また、図10及び図11に示す第3質問表示画面に例示するように、質問表示領域153は、質問として、「どのアクションをとりますか?」が表示されている。図10に例示するUI画面では、この質問と共に、回答として、「共感する」、「プロセスを褒める」、「理由を聞く」、及び「期待を実感させる」等のネガティブな場合に保護者の取り得るアクションを示す文字列が選択肢として左右に表示されている。この上述した質問は第3質問、又は第3の質問といい、上述した選択肢は第3の選択候補、又は第3選択候補という。また、この第3の選択候補で選択し得る感情を「第3の感情」という。この質問(第3質問)は、本システムから保護者への問いであり、第1回答及び第2回答を受信して得た子供の感情や画像に写った行動に対して、いかに振舞うかを問うものである。 Further, as exemplified in the third question display screen shown in FIGS. 10 and 11, the question display area 153 displays "Which action would you like to take?" as a question. On the UI screen illustrated in FIG. 10, along with this question, the parent's response in negative cases such as "sympathize", "praise the process", "ask the reason", and "realize the expectations" is displayed. Character strings indicating the action to be obtained are displayed on the left and right as options. This above-mentioned question is called the third question or third question, and the above-mentioned option is called the third choice candidate or third choice candidate. An emotion that can be selected from the third selection candidates is called a "third emotion". This question (the third question) is a question from this system to the guardian, asking how the child behaves in response to the child's emotions obtained by receiving the first and second answers and the behavior reflected in the image. It is a question.

このような具体的なアクションを選択肢として用意することにより、保護者の入力することの負荷が減少する。また、保護者がとり得るアクションを示すことで、どのようなアクションをとればよいか思いつかない保護者に対する助言となる。 By providing such specific actions as options, the burden of inputting by parents is reduced. In addition, by showing possible actions that parents can take, it is possible to give advice to parents who cannot think of what actions to take.

副画像表示領域154は、質問表示領域153の下側に設けられており、情報処理装置10により抽出された一又は複数の画像を上下方向に並べて一覧表示する領域である。本実施形態において、副画像表示領域154に表示される画像はユーザの閲覧当日に撮影されたものであるものとするが、これに限られない。一覧表示される各画像は、元の画像を縮小したもの、いわゆるサムネイルであってよく、サムネイル画像の作成は情報処理装置10又は端末装置30のいずれにより行われてもよい。図示の例では、副画像表示領域154に2つの画像が左右に並べて一覧表示されている。 The sub-image display area 154 is provided below the question display area 153, and is an area in which one or a plurality of images extracted by the information processing apparatus 10 are arranged vertically and displayed as a list. In the present embodiment, the image displayed in the sub-image display area 154 is assumed to be the image taken on the day of viewing by the user, but the present invention is not limited to this. Each image displayed as a list may be a reduced version of the original image, a so-called thumbnail image, and the thumbnail image may be created by either the information processing device 10 or the terminal device 30 . In the illustrated example, two images are displayed side by side in the sub-image display area 154 as a list.

なお、これ以上の数の画像を副画像表示領域154に一覧表示する場合に、端末装置30は、例えば副画像表示領域154の側部にスクロールバー等を表示し、副画像表示領域154に対するスクロール操作を受け付けて、副画像表示領域154に表示する画像をスクロールさせて切り替えてもよい。また副画像表示領域154に一覧表示される複数の画像の表示順は、例えば撮影時刻に応じて決定してもよい。端末装置30は、副画像表示領域154に一覧表示された一又は複数の画像に対するタッチ操作又はクリック操作等を受け付けることにより、ユーザによる画像の選択を受け付ける。端末装置30は、副画像表示領域154にて選択された画像を、主画像表示領域152に表示する。 When displaying a list of more than this number of images in the sub-image display area 154, the terminal device 30 displays, for example, a scroll bar or the like on the side of the sub-image display area 154 to scroll the sub-image display area 154. An operation may be received to scroll and switch images displayed in the sub-image display area 154 . Also, the display order of the plurality of images displayed as a list in the sub-image display area 154 may be determined according to the shooting time, for example. The terminal device 30 accepts selection of an image by the user by accepting a touch operation, a click operation, or the like on one or more images displayed as a list in the sub-image display area 154 . The terminal device 30 displays the image selected in the sub-image display area 154 in the main image display area 152 .

本実施形態に係る情報処理システム1では、端末装置30が表示するUI画面を利用してユーザが操作を行うことで、表示する画像の条件を設定することができる。例えばユーザは、日付表示領域151にて日付の条件を設定することができ、主画像表示領域152や質問表示領域153にて表示させる画像を選択することができ、質問表示領域153にて感情の条件を設定することができる。ユーザは、これら複数の条件を全て設定する必要はなく、適宜に一又は複数の条件を設定すればよい。 In the information processing system 1 according to the present embodiment, the user can operate the UI screen displayed by the terminal device 30 to set the conditions of the image to be displayed. For example, the user can set date conditions in the date display area 151, select images to be displayed in the main image display area 152 and the question display area 153, and express emotions in the question display area 153. Conditions can be set. The user does not need to set all of these multiple conditions, and may set one or more conditions as appropriate.

また、UI上部には、主画像表示領域152、及び副画像表示領域154に表示可能な枚数を表示する。図7の例では、「15枚」が表示可能な画像の枚数である。この表示可能な画像の枚数は、日付表示領域151に表示された日時に撮影された画像であり、情報処理装置10により抽出され、端末装置30に送信された画像の枚数である。 Also, the number of images that can be displayed in the main image display area 152 and the sub-image display area 154 is displayed in the upper part of the UI. In the example of FIG. 7, "15" is the number of images that can be displayed. The number of images that can be displayed is the number of images captured on the date and time displayed in the date display area 151 and extracted by the information processing device 10 and transmitted to the terminal device 30 .

また、図示は省略するが、端末装置30は、イベント(カリキュラム)のスケジュールを表示する領域を設け、ユーザにより選択されたイベントに関連付けて表示させる画像を抽出してもよい。また、本実施形態に係る情報処理システム1では、所定のアクションをとった後のフィードバック、親子での会話、及び、対象者である子供の様子等をコメントとして入力することができる領域を設けてもよい。また、学習で表示させるアクションや画像を変更してもよい。また、本実施形態に係る情報処理システム1では、主画像表示領域152や副画像表示領域154に表示された画像に対してコメント等の情報を付すことができてもよい。 Also, although illustration is omitted, the terminal device 30 may provide an area for displaying a schedule of events (curriculum), and extract an image to be displayed in association with the event selected by the user. In addition, in the information processing system 1 according to the present embodiment, an area is provided for inputting comments such as feedback after taking a predetermined action, parent-child conversations, and the state of the child who is the target person. good too. Also, actions and images displayed in learning may be changed. Further, in the information processing system 1 according to the present embodiment, information such as comments may be added to the images displayed in the main image display area 152 and the sub-image display area 154 .

<情報処理装置10による画像記憶処理>
図12は、本実施形態に係る情報処理装置10の制御部13が行う画像記憶処理の手順を示すフローチャートである。この図12を用いて、情報処理装置10による画像記憶処理について説明する。
<Image Storage Processing by Information Processing Apparatus 10>
FIG. 12 is a flowchart showing the procedure of image storage processing performed by the control unit 13 of the information processing apparatus 10 according to this embodiment. Image storage processing by the information processing apparatus 10 will be described with reference to FIG.

(ステップS101)
本実施形態に係る情報処理装置10の制御部13の画像受信部130は、施設に設置された撮影装置20が送信する画像を受信したか否かを判定する。撮影装置20から画像を受信した場合(ステップS101:YES)、処理はステップS102に進む。一方、画像を受信していない場合(ステップS101:NO)、画像受信部130は、撮影装置20から画像を受信するまで待機する。
(Step S101)
The image receiving unit 130 of the control unit 13 of the information processing apparatus 10 according to this embodiment determines whether or not the image transmitted by the imaging device 20 installed in the facility has been received. If an image has been received from the imaging device 20 (step S101: YES), the process proceeds to step S102. On the other hand, if no image has been received (step S<b>101 : NO), the image reception unit 130 waits until an image is received from the imaging device 20 .

(ステップS102)
制御部13の画像識別部131は、撮影装置20が撮影した画像に写された人物を検出する処理を行う。処理はステップS103に進む。
(Step S102)
The image identification unit 131 of the control unit 13 performs processing for detecting a person appearing in the image captured by the image capturing device 20 . The process proceeds to step S103.

(ステップS103)
画像識別部131は、画像に人物が写っているか否かを判定する。画像に人物が写っている場合(ステップS103:YES)、処理はステップS104に進む。一方、画像に人物が写っていない場合(ステップS103:NO)、処理はステップS108に進む。
(Step S103)
The image identification unit 131 determines whether or not a person is shown in the image. If the image includes a person (step S103: YES), the process proceeds to step S104. On the other hand, if the image does not include a person (step S103: NO), the process proceeds to step S108.

(ステップS104)
画像識別部131は、例えば、画像に写された人物の特徴量を取得し、ユーザDB121に記憶された特徴量に基づいて、画像に写された人物が誰であるかを識別する処理を行う。処理はステップS105に進む。
(Step S104)
The image identification unit 131 acquires, for example, the feature amount of the person in the image, and performs a process of identifying who the person in the image is based on the feature amount stored in the user DB 121. . The process proceeds to step S105.

(ステップS105)
画像識別部131は、画像に写された人物の表情を識別する処理を行う。処理はステップS106に進む。
(Step S105)
The image identification unit 131 performs processing for identifying the facial expression of a person captured in the image. The process proceeds to step S106.

(ステップS106)
画像識別部131は、例えば、ステップS105にて識別した表情に基づいて画像のスコアリングを行い、スコアが閾値を超えるか否かを判定することによって、この画像を記憶するか否かを判定する。画像を記憶すると判定した場合(ステップS109:YES)、処理はステップS107に進む。一方、画像を記憶しないと判定した場合(ステップS109:NO)、処理はステップS108に進む。
(Step S106)
The image identification unit 131, for example, scores the image based on the facial expression identified in step S105, and determines whether or not the score exceeds a threshold, thereby determining whether or not to store the image. . If it is determined to store the image (step S109: YES), the process proceeds to step S107. On the other hand, if it is determined not to store the image (step S109: NO), the process proceeds to step S108.

(ステップS107)
画像選別部132は、画像を画像記憶部120に記憶し、処理を終了する。なお、本実施形態では、ステップS106において画像を記憶しないと判定した場合、画像を破棄して処理を終了するものとしたが、ステップS101へ処理を戻し、画像を受信するまで待機するように構成してもよい。
(Step S107)
The image selection unit 132 stores the images in the image storage unit 120 and terminates the process. In this embodiment, when it is determined that the image is not to be stored in step S106, the image is discarded and the processing ends. You may

なお本実施形態においては、撮影装置20が撮影した画像から人物を検出する処理、画像に写された人物が誰であるかを識別する処理、及び、画像に写された人物の表情を識別する処理等を情報処理装置10が行うものとするが、これに限るものではない。これら複数の処理の一部又は全部は撮影装置20にて行われてもよい。例えば、撮影装置20は、自身が撮影した画像から人物を検出する処理を行い、人物が写されていない画像を情報処理装置10へ送信せずに破棄してもよい。また、例えば撮影装置20は画像に写された人物の表情の識別等の処理を行い、処理結果を画像に付して情報処理装置10へ送信してもよい。 Note that in the present embodiment, processing for detecting a person from an image captured by the photographing device 20, processing for identifying the person captured in the image, and identification of the facial expression of the person captured in the image are performed. It is assumed that the information processing apparatus 10 performs processing and the like, but the present invention is not limited to this. Some or all of these multiple processes may be performed by the imaging device 20 . For example, the photographing device 20 may perform a process of detecting a person from an image photographed by itself, and may discard an image that does not include a person without transmitting it to the information processing device 10 . Further, for example, the photographing device 20 may perform processing such as identification of the facial expression of a person captured in the image, attach the processing result to the image, and transmit the processing result to the information processing device 10 .

<情報処理装置10による画像表示処理>
図13は、本実施形態に係る情報処理装置10が行う画像表示処理の手順を示すフローチャートである。この図13を用いて、情報処理装置10による画像表示処理について説明する。
<Image display processing by information processing device 10>
FIG. 13 is a flowchart showing the procedure of image display processing performed by the information processing apparatus 10 according to this embodiment. Image display processing by the information processing apparatus 10 will be described with reference to FIG.

(ステップS201)
本実施形態に係る制御部13の画像送信部133は、主画像表示領域152、及び副画像表示領域154に表示する画像を端末装置30に対して送信する。本実施形態において、起動直後にUI画面の主画像表示領域152、及び副画像表示領域154に表示する画像については、ランダムに抽出してもよいし、また、例えば、表情の識別(図12のステップS105参照)を行った後に、笑顔の表情の画像と泣いている表情の画像との合計枚数が同じ枚数になるようにランダムに抽出してもよく、また、笑顔の表情の写っている画像のみを抽出してもよい。また、端末装置30から画像の送信要求が与えられた場合には、画像送信部133は、送信要求に付された画像の条件を取得する。例えば、ユーザにより副画像表示領域154に表示される画像の中から特定の画像の送信要求が与えられた場合には、この画像を送信してもよい。また、ユーザにより日付表示領域151において対象の年月日が設定された場合には、この条件にて設定された画像を抽出し、端末装置30に対して送信する。そして、処理がステップS202に進む。
(Step S201)
The image transmission unit 133 of the control unit 13 according to this embodiment transmits images to be displayed in the main image display area 152 and the sub-image display area 154 to the terminal device 30 . In this embodiment, the images to be displayed in the main image display area 152 and the sub-image display area 154 of the UI screen immediately after activation may be randomly extracted, or may be, for example, facial expression identification (see FIG. 12). (see step S105)) may be randomly extracted so that the total number of images with a smiling expression and images with a crying expression is the same. may be extracted only. Further, when an image transmission request is given from the terminal device 30, the image transmission unit 133 acquires the image conditions attached to the transmission request. For example, when the user gives a transmission request for a specific image among the images displayed in the sub-image display area 154, this image may be transmitted. When the user sets the target date in the date display area 151 , the image set under this condition is extracted and transmitted to the terminal device 30 . Then, the process proceeds to step S202.

(ステップS202)
制御部13の質問送信部134は、第1質問を端末装置30に対して送信する。この第1質問とは、一例として、「ひなちゃんのこのときの気持ちはどっちかな?」である(図7参照)。同時に、質問送信部134は、「ポジティブ」、及び「ネガティブ」の選択肢(図7参照)を回答として端末装置30に対して送信する。そして、処理がステップS202に進む。
(Step S202)
The question transmission section 134 of the control section 13 transmits the first question to the terminal device 30 . This first question is, for example, "Which is Hina-chan's feeling at this time?" (see FIG. 7). At the same time, the question transmitting unit 134 transmits the options of “positive” and “negative” (see FIG. 7) to the terminal device 30 as answers. Then, the process proceeds to step S202.

(ステップS203)
制御部13の回答受信部135、第1質問の回答である第1回答を端末装置30から受信した場合(ステップS203:YES)、処理がステップS204に進む。本例の場合、第1回答とは、「ポジティブ」という感情を示す情報と、「ネガティブ」という感情を示す情報のいずれかである。一方、第1回答を受信しなかった場合(ステップS203:NO)、第1回答を受信するまで待機する。なお、本実施形態では、第1回答を受信しなかった場合に第1回答を受信するまで待機するものとしたが、この場合、処置を終了してもよい。
(Step S203)
When the answer receiving unit 135 of the control unit 13 receives the first answer, which is the answer to the first question, from the terminal device 30 (step S203: YES), the process proceeds to step S204. In the case of this example, the first answer is either information indicating an emotion of "positive" or information indicating an emotion of "negative." On the other hand, if the first reply has not been received (step S203: NO), it waits until the first reply is received. In this embodiment, when the first reply is not received, the processing waits until the first reply is received. In this case, the treatment may be terminated.

(ステップS204)
質問送信部134は、第2質問を端末装置30に対して送信する。この第2質問とは、一例として、「ひなちゃんのこのときの気持ちはどれかな?」である(図8,図9参照)。同時に、質問送信部134は、具体的な気持ちを示す画像からなるの4つの選択肢を端末装置30に対して送信する。
(Step S204)
The question sending unit 134 sends the second question to the terminal device 30 . This second question is, for example, "What is Hina-chan's feeling at this time?" (see FIGS. 8 and 9). At the same time, the question transmission unit 134 transmits to the terminal device 30 four options consisting of images showing specific feelings.

本実施形態において、例えば、回答受信部135が、ステップS203に示した第1回答として、ユーザから「ポジティブ」を受信した場合、図8に例示した(ポジティブ選択時の)第2質問表示画面を表示させる。そのため、質問送信部134は、第2質問と同時に送信する第2回答のための選択肢として、「幸せ」、「楽しい」、「満足」、及び「嬉しい」等のポジティブな感情を示す文字列と画像とを端末装置30に対して送信する。 In this embodiment, for example, when the answer receiving unit 135 receives "positive" from the user as the first answer shown in step S203, the second question display screen (when positive is selected) shown in FIG. display. Therefore, the question transmission unit 134 selects character strings indicating positive emotions such as “happiness”, “fun”, “satisfaction”, and “happy” as options for the second answer to be transmitted at the same time as the second question. image is transmitted to the terminal device 30 .

一方、本実施形態において、例えば、回答受信部135が、ステップS203に示す第1回答として、ユーザから「ネガティブ」を受信した場合、図9に例示した(ネガティブ選択時の)第2質問表示画面を表示させる。そのため、質問送信部134は、第2質問と同時に送信する第2回答のための選択肢として、「怒っている」、「怖い」、「悲しい」、及び「つらい」等のネガティブな感情を示す文字列と画像とを端末装置30に対して送信する。 On the other hand, in the present embodiment, for example, when the answer receiving unit 135 receives "negative" from the user as the first answer shown in step S203, the second question display screen (at the time of negative selection) illustrated in FIG. 9 is displayed. display. Therefore, the question transmitting unit 134 selects characters indicating negative emotions such as "angry", "scary", "sad", and "hard" as options for the second answer to be transmitted at the same time as the second question. The columns and images are transmitted to the terminal device 30 .

(ステップS205)
回答受信部135が、第2質問の回答である第2回答を端末装置30から受信した場合(ステップS205:YES)、処理がステップS20に6進む。第2回答とは、「幸せ」、「楽しい」、「満足」、及び「嬉しい」等のポジティブな感情のうちのいずれか、又は、「怒っている」、「怖い」、「悲しい」、及び「つらい」等のネガティブな感情のうちのいずれかである。一方、第2回答を受信しなかった場合(ステップS205:NO)、第2回答を受信するまで待機するものとしたが、この場合、処理を終了してもよい。
(Step S205)
When the answer receiving unit 135 receives the second answer, which is the answer to the second question, from the terminal device 30 (step S205: YES), the process proceeds to step S20. The second answer is one of positive emotions such as "happy", "fun", "satisfied" and "happy", or "angry", "scary", "sad" and It is one of the negative emotions such as "tough". On the other hand, when the second reply has not been received (step S205: NO), the processing is waited until the second reply is received, but in this case, the process may end.

(ステップS206)
質問送信部134は、第3質問を端末装置30に対して送信する。この第3質問とは、一例として、「どのアクションをとりますか?」である(図10,図11参照)。同時に、質問送信部134は、具体的なアクションを示す画像からなるの4つの選択肢を端末装置30に対して送信する。
(Step S206)
The question sending unit 134 sends the third question to the terminal device 30 . This third question is, for example, "Which action would you like to take?" (see FIGS. 10 and 11). At the same time, the question sending unit 134 sends four options consisting of images showing specific actions to the terminal device 30 .

本実施形態において、例えば、回答受信部135が、ステップS203に示した第1回答として、ユーザから「ネガティブ」を受信した場合、図10に例示した(ネガティブ選択時の)第3質問表示画面を表示させる。そのため、質問送信部134は、第3質問と同時に送信する第3回答のための選択肢として、「共感する」、「プロセスを褒める」、「理由を聞く」、及び「期待を実感させる」等のネガティブな場合に保護者の取り得るアクションを示す文字列を端末装置30に対して送信する。 In this embodiment, for example, when the answer receiving unit 135 receives "negative" from the user as the first answer shown in step S203, the third question display screen (at the time of negative selection) illustrated in FIG. display. Therefore, the question sending unit 134 selects options for the third answer to be sent at the same time as the third question, such as "sympathize", "praise the process", "ask the reason", and "realize the expectations". A character string indicating an action that the guardian can take in the negative case is transmitted to the terminal device 30. - 特許庁

一方、本実施形態において、例えば、回答受信部135が、ステップS203に示した第1回答として、ユーザから「ポジティブ」を受信した場合、図11に例示した(ポジティブ選択時の)第3質問表示画面を表示させる。そのため、質問送信部134は、第3質問と同時に送信する第3回答のための選択肢として、「共感する」、「詳しく話を聞く」、「褒める」、及び「嬉しい感情を伝える」等のポジティブな場合に保護者の取り得るアクションを示す文字列を端末装置30に対して送信する。 On the other hand, in the present embodiment, for example, when the answer receiving unit 135 receives "positive" from the user as the first answer shown in step S203, the third question display (at the time of positive selection) illustrated in FIG. display the screen. Therefore, the question transmission unit 134 selects positive responses such as "sympathize", "listen to the story in detail", "praise", and "convey happy feelings" as options for the third answer to be transmitted at the same time as the third question. In such a case, a character string indicating an action that the guardian can take is transmitted to the terminal device 30. - 特許庁

(ステップS207)
回答受信部135が、第3質問の回答である第3回答を端末装置30から受信した場合(ステップS207:YES)、処理が終了する。第3回答とは、「共感する」、「詳しく話を聞く」、「褒める」、及び「嬉しい感情を伝える」等のポジティブな感情に対して保護者がとり得るアクションのうちのいずれか、又は、「共感する」、「プロセスを褒める」、「理由を聞く」、及び「期待を実感させる」等のネガティブな感情に対して保護者がとり得るアクションのうちのいずれかである。一方、第3回答を受信しなかった場合(ステップS207:NO)、第3回答を受信するまで待機するものとしたが、この場合、処理を終了してもよい。
(Step S207)
If the answer receiving unit 135 receives the third answer, which is the answer to the third question, from the terminal device 30 (step S207: YES), the process ends. The third response is any of the possible actions that parents can take in response to positive emotions such as "sympathize", "listen to details", "praise", and "convey happy feelings", or , ``Empathize'', ``Praise the process'', ``Ask why'', and ``Realize the expectations''. On the other hand, if the third reply has not been received (step S207: NO), the processing waits until the third reply is received, but in this case, the process may end.

<端末装置30における画像表示処理>
図14は、本実施形態に係る端末装置30における画像表示処理の手順を示すフローチャートである。この図14を用いて、端末装置30における画像表示処理について説明する。
<Image display processing in terminal device 30>
FIG. 14 is a flowchart showing the procedure of image display processing in the terminal device 30 according to this embodiment. Image display processing in the terminal device 30 will be described with reference to FIG.

本実施形態において、ユーザは本サービスを利用するにあたり、アプリケーションプログラム等のユーザプログラム340を起動する。当該アプリケーションプログラムが起動されると、制御部33の表示制御部330は、端末装置30に、図7に例示したUI画面を表示する。なお、起動直後のUI画面は、主画像表示領域152、及び副画像表示領域154にランダムに画像が表示されているものであってもよいし、また、例えば、表情の識別(図12のステップS105参照)が行われた後に、笑顔の表情の画像と泣いている表情の画像との合計枚数が同じ枚数になるようにランダムに表示されるようにしてもよく、また、笑顔の表情のみが抽出されて表示されてもよい。また、主画像表示領域152、及び副画像表示領域154に画像が表示されていない状態であってもよい。 In this embodiment, the user activates a user program 340 such as an application program to use this service. When the application program is activated, the display control unit 330 of the control unit 33 displays the UI screen illustrated in FIG. 7 on the terminal device 30. FIG. Note that the UI screen immediately after activation may be one in which images are randomly displayed in the main image display area 152 and the sub-image display area 154, or, for example, facial expression identification (step in FIG. 12). S105) is performed, the images may be displayed at random so that the total number of images with a smiling expression and images with a crying expression is the same, or only the smiling expression may be displayed. It may be extracted and displayed. Also, the main image display area 152 and the sub-image display area 154 may be in a state where no image is displayed.

(ステップS301)
端末装置30の操作部34により、副画像表示領域154に一覧表示された画像の中から一つの画像が選択された場合、情報処理装置10の条件取得部331は、ユーザにより選択されたことを検知すると共に、端末装置30の表示制御部330は、選択された一の画像を主画像表示領域152に表示する。なお、このステップS301の処理はスキップしてもよく、その場合、本システムにより主画像表示領域152に画像が表示されたUI画像の表示を継続する。そして、処理がステップS302に進む。なお、続くステップS302~S304では、ユーザは、主画像表示領域152に表示された画像に対する質問について操作部34を用いて回答を行う。ステップS302~S304のそれぞれにおいて、表示される質問は異なり、これらの内容は以下に詳述する。
(Step S301)
When one image is selected from among the images displayed as a list in the sub-image display area 154 by the operation unit 34 of the terminal device 30, the condition acquisition unit 331 of the information processing device 10 confirms that the user has selected the image. Along with the detection, the display control unit 330 of the terminal device 30 displays the selected one image in the main image display area 152 . Note that the process of step S301 may be skipped, in which case the UI image displayed in the main image display area 152 by the present system is continued to be displayed. Then, the process proceeds to step S302. In subsequent steps S302 to S304, the user uses the operation unit 34 to answer questions about the image displayed in the main image display area 152. FIG. In each of steps S302-S304, the questions displayed are different, and their contents are detailed below.

(ステップS302)
質問表示領域153に表示された第1質問に対して回答を行った場合(ステップS302:YES)、処理がステップS303に進む。具体的には、図7に例示したように、「ひなちゃんの気持ちはどっちかな?」という質問と同時に、「ポジティブ」か「ネガティブ」かを問う、第1回答のための選択肢が質問表示領域153に表示される。ここで、当該選択肢の中から操作部34によりいずれかの感情が選択されると、第1回答を送信したことになり処理がステップS303に進む。
(Step S302)
If the first question displayed in the question display area 153 has been answered (step S302: YES), the process proceeds to step S303. Specifically, as exemplified in FIG. 7, at the same time as the question "How do you feel about Hina-chan?" 153. Here, when one of the emotions is selected by the operation unit 34 from among the options, the first reply is transmitted, and the process proceeds to step S303.

一方、質問表示領域153に表示された第1質問に対して回答を行わなかった場合(ステップS302:NO)、処理が終了する。本実施形態において、回答を行わなかった場合に処理が終了するものとしたが、これに替えて、回答を行うまで待機しておいてもよいし、ステップS301に示す画像選択の処理に戻ってもよい。 On the other hand, if the first question displayed in the question display area 153 has not been answered (step S302: NO), the process ends. In the present embodiment, the process ends when no answer is given, but instead of this, the process may wait until the answer is given, or return to the image selection process shown in step S301. good too.

(ステップS303)
質問表示領域153に表示された第2質問に対して回答を行った場合(ステップS303:YES)、処理がステップS304に進む。具体的には、図8に例示したように、「ひなちゃんの気持ちはどっちかな?」という質問と同時に、「幸せ」、「楽しい」、「満足」、及び「嬉しい」等のポジティブな感情のうちのいずれかを問う、第2回答のための選択肢が質問表示領域153に表示される。ここで、当該選択肢の中から操作部34によりいずれかの感情が選択されると、第2回答を送信したことになり処理がステップS304に進む。あるいは、図9に例示したように、「ひなちゃんの気持ちはどっちかな?」という質問と同時に、「怒っている」、「怖い」、「悲しい」、及び「つらい」等のネガティブな感情のうちのいずれかを問う、第2回答のための選択肢が質問表示領域153に表示される。
(Step S303)
If the second question displayed in the question display area 153 has been answered (step S303: YES), the process proceeds to step S304. Specifically, as exemplified in FIG. 8, at the same time as the question "How do you feel about Hina-chan?" A question display area 153 displays options for a second answer asking one of them. Here, when one of the emotions is selected by the operation unit 34 from among the options, the second response is transmitted, and the process proceeds to step S304. Alternatively, as exemplified in FIG. 9, at the same time as the question "Which is Hina-chan's feeling?" is displayed in the question display area 153 for the second answer.

一方、質問表示領域153に表示された第2質問に対して回答を行わなかった場合(ステップS303:NO)、処理が終了する。本実施形態において、回答を行わなかった場合に処理が終了するものとしたが、これに替えて、回答を行うまで待機しておいてもよいし、ステップS301に示す画像選択の処理に戻ってもよい。 On the other hand, if the second question displayed in the question display area 153 has not been answered (step S303: NO), the process ends. In the present embodiment, the process ends when no answer is given, but instead of this, the process may wait until the answer is given, or return to the image selection process shown in step S301. good too.

(ステップS304)
質問表示領域153に表示された第3質問に対して回答を行った場合(ステップS304:YES)、処理が終了する。具体的には、図10に例示したように、「どのアクションをとりますか?」という質問と同時に、「共感する」、「詳しく話を聞く」、「褒める」、及び「嬉しい感情を伝える」等のポジティブな場合に保護者の取り得るアクションのうちのいずれかを問う、第3回答のための選択肢が質問表示領域153に表示される。ここで、当該選択肢の中から操作部34によりいずれかの感情が選択されると、第3回答を送信したことになり処理が終了する。あるいは、図11に例示したように、「どのアクションをとりますか?」という質問と同時に、「共感する」、「プロセスを褒める」、「理由を聞く」、及び「期待を実感させる」等のネガティブな場合に保護者の取り得るアクションを問う、第3回答のための選択肢が質問表示領域153に表示される。
(Step S304)
If the third question displayed in the question display area 153 has been answered (step S304: YES), the process ends. Specifically, as illustrated in FIG. 10, at the same time as the question "Which action would you like to take?" Choices for the third answer are displayed in the question display area 153 to ask any of the actions that the guardian can take in a positive case such as. Here, when one of the emotions is selected by the operation unit 34 from among the options, the third response is transmitted, and the process ends. Alternatively, as exemplified in FIG. 11, at the same time as the question "Which action would you like to take?" Options for a third answer are displayed in the question display area 153 to ask what action the guardian can take in the negative case.

一方、質問表示領域153に表示された第3質問に対して回答を行わなかった場合(ステップS304:NO)、処理が終了する。本実施形態において、回答を行わなかった場合に処理が終了するものとしたが、これに替えて、回答を行うまで待機しておいてもよいし、ステップS301に示す画像選択の処理に戻ってもよい。 On the other hand, if the third question displayed in the question display area 153 has not been answered (step S304: NO), the process ends. In the present embodiment, the process ends when no answer is given, but instead of this, the process may wait until the answer is given, or return to the image selection process shown in step S301. good too.

<実施の形態2>
上述した実施形態(実施の形態1ともいう)では、本システムにより抽出した画像、又は、ユーザにより選択された画像が主画像表示領域152に表示され、この主画像表示領域152に表示された画像に対して、質問表示領域153において質問が選択肢を表示してユーザが回答を行うものとした。実施の形態2では、本システムにより抽出した画像の中から、さらに本システム又はユーザプログラム340により所定の複数枚を選択し、ユーザがこれら複数枚の画像の中から、画像が撮影された時の気持ちを入力したい画像、又は、親子で話題に取り上げたい画像等を端末装置30の操作部34を用いて選択し、この選択された画像について質問や回答を行う。
<Embodiment 2>
In the above-described embodiment (also referred to as Embodiment 1), an image extracted by the system or an image selected by the user is displayed in the main image display area 152, and the image displayed in the main image display area 152 The question display area 153 displays options for the question, and the user answers the question. In the second embodiment, the system or the user program 340 selects a plurality of predetermined images from among the images extracted by the system, and the user selects the images from the plurality of images when the images are taken. Using the operation unit 34 of the terminal device 30, the user selects an image in which he/she wants to input his/her feelings or an image in which the parent and child want to discuss the subject, and asks questions and answers about the selected image.

また、上述した実施の形態1では、1つのUI画面上に、日付表示領域151、主画像表示領域152、質問表示領域153、及び副画像表示領域154を備えるものとしたが、実施の形態2では、各領域を1つのUI画面上に表示するものとする。なお、このようなUI画面上での領域の表示方法は一例にすぎず、複数の領域を組み合わせて表示させてもよい。 In the first embodiment described above, the date display area 151, the main image display area 152, the question display area 153, and the sub-image display area 154 are provided on one UI screen. Then, each area shall be displayed on one UI screen. Note that the display method of the areas on the UI screen is merely an example, and a plurality of areas may be combined and displayed.

<第2の実施形態に係るUI画面:画像表示処理>
図15~図20は、本実施形態に係る端末装置30が表示するUI画面の一例を示す模式図である。なお、この図15~図20に例示するUI画面は、施設の利用者である「ひなちゃん」の保護者が使用する端末装置30が表示するUI画面の一例である。図15は選択画面の一例を示す図であり、図16は第1質問表示画面の一例を示す図であり、図17及び図18は第2質問表示画面の一例を示す図であり、図19及び図20は第3質問表示画面の一例を示す図である。また、図17及び図19は、「ポジティブ」を選択した場合のUI画面の一例であり、図18及び図20は「ネガティブ」を選択した場合のUI画面の一例である。図15~図20を用いて、第2の実施形態に係るUI画面について説明する。
<UI Screen According to Second Embodiment: Image Display Processing>
15 to 20 are schematic diagrams showing examples of UI screens displayed by the terminal device 30 according to the present embodiment. The UI screens illustrated in FIGS. 15 to 20 are examples of UI screens displayed by the terminal device 30 used by the guardian of "Hina-chan" who is a user of the facility. 15 is a diagram showing an example of the selection screen, FIG. 16 is a diagram showing an example of the first question display screen, FIGS. 17 and 18 are diagrams showing an example of the second question display screen, and FIG. and FIG. 20 is a diagram showing an example of the third question display screen. 17 and 19 are examples of UI screens when "positive" is selected, and FIGS. 18 and 20 are examples of UI screens when "negative" is selected. UI screens according to the second embodiment will be described with reference to FIGS. 15 to 20. FIG.

なお、第2の実施形態に係る情報処理システム1では、予め、本システムにより、上述した画像のスコアリングを行うことにより所定枚数の画像が抽出され、端末装置30に送信される。 In the information processing system 1 according to the second embodiment, a predetermined number of images are extracted by scoring the images described above and transmitted to the terminal device 30 in advance.

質問画面について図15を用いて説明する。この図15に例示するように、質問画面は日付表示領域151と、選択対象画像表示領域155と、を備える。この選択対象画像表示領域155は、UI画面の中央に設けられており、所定枚数の画像がユーザにより選択可能な態様で表示されている。図15に例示するUI画面(選択画面)では、3枚の画像が選択可能な態様で表示されている。本実施形態に係る情報処理システム1からは、選択対象画像表示領域155に表示可能な枚数、又は、選択対象画像表示領域155に表示可能な枚数を超えた枚数の画像が端末装置30に送られており、その中から本システムにより抽出された所定枚数の画像のみが、選択対象画像表示領域155に表示される。 The question screen will be described with reference to FIG. 15 . As exemplified in FIG. 15, the question screen includes a date display area 151 and a selection target image display area 155 . This selectable image display area 155 is provided in the center of the UI screen, and a predetermined number of images are displayed in a manner that can be selected by the user. On the UI screen (selection screen) illustrated in FIG. 15, three images are displayed in a selectable manner. From the information processing system 1 according to the present embodiment, the number of images that can be displayed in the selection target image display area 155 or the number of images that exceeds the number of images that can be displayed in the selection target image display area 155 is sent to the terminal device 30. Only a predetermined number of images extracted by this system from among them are displayed in the selection target image display area 155 .

また、図15の例では、例えば、選択対象画像表示領域155の下に設けられているインジケーターを選択することにより、選択対象画像表示領域155に表示される画像が選択対象画像表示領域155に切り替わる。図15に例示する選択可能な画像を表示する選択画面は一例であり、例えば、一度に選択可能な画像を表示させてもよい。また、インジケーターの個数は表示させる画面の個数と同一にしてもよい。 Further, in the example of FIG. 15, for example, by selecting an indicator provided under the selection target image display area 155, the image displayed in the selection target image display area 155 is switched to the selection target image display area 155. . The selection screen displaying selectable images illustrated in FIG. 15 is an example, and for example, selectable images may be displayed at once. Also, the number of indicators may be the same as the number of screens to be displayed.

この選択対象画像表示領域155の下には、「選択する」のボタンが設けられており、このボタンを押すことにより、その際、選択対象画像表示領域155に表示されている画像が、次に表示されるUI画面に表示され、続く質問や回答の対象となる。 A "select" button is provided below the selection target image display area 155. By pressing this button, the image displayed in the selection target image display area 155 is displayed next. It is displayed on the displayed UI screen and becomes the target of subsequent questions and answers.

図15に例示した選択画面にて次のUI画面に表示される画像を選択すると、図16に例示する第1質問表示画面が表示される。第1質問表示画面について、図16を用いて説明する。 When an image displayed on the next UI screen is selected on the selection screen illustrated in FIG. 15, the first question display screen illustrated in FIG. 16 is displayed. The first question display screen will be explained using FIG. 16 .

図16に例示するように、第1質問表示画面は、日付表示領域151と、主画像表示領域152と、質問表示領域153と、を備える。第1質問表示画面の質問表示領域153は、主画像表示領域152の下側に設けられており、例えば、質問と共に、回答として、感情を示す文字列や、感情を示すアイコンや文字列を含む画像が選択肢として表示される。端末装置30は、質問表示領域153に表示されたいずれかの選択肢に対するタッチ操作やクリック操作等を受け付けることにより、感情の選択を受け付ける。感情の選択を受け付けた端末装置30は、この感情を示す文字列やアイコン等の画像を送信する要求を情報処理装置10へ与え、当該要求に応じて情報処理装置10から送信される画像を受信して表示する。これらの第1質問やその回答、UI画面を構成する部品については第1の実施形態と同様であるため説明を省略する。 As illustrated in FIG. 16, the first question display screen includes a date display area 151, a main image display area 152, and a question display area 153. The question display area 153 of the first question display screen is provided below the main image display area 152, and includes, for example, a character string indicating an emotion, an icon or character string indicating an emotion as an answer together with the question. Images are displayed as options. The terminal device 30 accepts selection of an emotion by accepting a touch operation, a click operation, or the like on one of the options displayed in the question display area 153 . The terminal device 30 that has accepted the selection of the emotion gives the information processing device 10 a request to transmit an image such as a character string or an icon representing this emotion, and receives an image transmitted from the information processing device 10 in response to the request. to display. The first question, its answer, and the components that make up the UI screen are the same as those in the first embodiment, so descriptions thereof will be omitted.

図16に例示した第1質問表示画面にて第1質問について回答(感情を選択)すると、図17又は図18に例示する第2質問表示画面が表示される。第2質問表示画面について、図17及び図18を用いて説明する。 When the first question is answered (emotion is selected) on the first question display screen illustrated in FIG. 16, the second question display screen illustrated in FIG. 17 or 18 is displayed. The second question display screen will be described with reference to FIGS. 17 and 18. FIG.

図17及び図18に例示するように、第2質問表示画面は、日付表示領域151と、主画像表示領域152と、質問表示領域153と、を備える。第2質問表示画面の質問表示領域153は、質問として、「ひなちゃんのこのときの気持ちはどれかな?」が表示されている。図17に例示するUI画面では、この質問と共に、回答として、「幸せ」、「楽しい」、「満足」、及び「嬉しい」等のポジティブな感情を示す文字列と画像とが選択肢として左右に表示されている。また、図18に例示するUI画面では、この質問と共に、回答として、「怒っている」、「怖い」、「悲しい」、及び「つらい」等のネガティブな感情を示す文字列と画像とが選択肢として左右に表示されている。この上述した質問は第2質問、又は第2の質問といい、上述した選択肢は第2の選択候補、又は第2選択候補という。第2の質問は、第1の質問に関する回答を詳細に問うものである。また、この第3の選択候補で選択し得る感情を「第2の感情」という。これらの第2質問やその回答、UI画面を構成する部品については第1の実施形態と同様であるため説明を省略する。 As illustrated in FIGS. 17 and 18, the second question display screen includes a date display area 151, a main image display area 152, and a question display area 153. FIG. In the question display area 153 of the second question display screen, the question "What is Hina-chan's feeling at this time?" is displayed. In the UI screen illustrated in FIG. 17, along with this question, character strings and images indicating positive emotions such as "happiness", "fun", "satisfaction", and "happy" are displayed on the left and right as options as answers. It is In the UI screen illustrated in FIG. 18, along with this question, as answers, character strings and images indicating negative emotions such as "angry", "scary", "sad", and "hard" are selected. are displayed to the left and right as This above-mentioned question is called the second question, or second question, and the above-mentioned option is called the second choice, or second choice. The second question asks for detailed responses to the first question. An emotion that can be selected from the third selection candidates is called a "second emotion". The second question, its answers, and the components that make up the UI screen are the same as those in the first embodiment, so descriptions thereof will be omitted.

図17又は図18に例示した第2質問表示画面にて第2質問について回答(具体的な感情を選択)すると、図19又は図20に例示する第3質問表示画面が表示される。第3質問表示画面について、図19及び図20を用いて説明する。 When the second question is answered (specific emotion is selected) on the second question display screen illustrated in FIG. 17 or 18, the third question display screen illustrated in FIG. 19 or 20 is displayed. The third question display screen will be explained using FIGS. 19 and 20. FIG.

図19及び図20に例示するように、第3質問表示画面は、日付表示領域151と、主画像表示領域152と、質問表示領域153と、を備える。第3質問表示画面の質問表示領域153は、質問として、「どのアクションをとりますか?」が表示されている。図10に例示するUI画面では、この質問と共に、回答として、「共感する」、「プロセスを褒める」、「理由を聞く」、及び「期待を実感させる」等のネガティブな場合に保護者の取り得るアクションを示す文字列が選択肢として左右に表示されている。この上述した質問は第3質問、又は第3の質問といい、上述した選択肢は第3の選択候補、又は第3選択候補という。また、この第3の選択候補で選択し得る感情を「第3の感情」という。この質問(第3質問)は、本システムから保護者への問いであり、第1回答及び第2回答を受信して得た子供の感情や画像に写った行動に対して、いかに振舞うかを問うものである。これらの第3質問やその回答、UI画面を構成する部品については第1の実施形態と同様であるため説明を省略する。 As illustrated in FIGS. 19 and 20, the third question display screen includes a date display area 151, a main image display area 152, and a question display area 153. FIG. In the question display area 153 of the third question display screen, the question "Which action do you want to take?" is displayed. On the UI screen illustrated in FIG. 10, along with this question, the parent's response in negative cases such as "sympathize", "praise the process", "ask the reason", and "realize the expectations" is displayed. Character strings indicating the action to be obtained are displayed on the left and right as options. This above-mentioned question is called the third question or third question, and the above-mentioned option is called the third choice candidate or third choice candidate. An emotion that can be selected from the third selection candidates is called a "third emotion". This question (the third question) is a question from this system to the guardian, asking how the child behaves in response to the child's emotions obtained by receiving the first and second answers and the behavior reflected in the image. It is a question. The third question, its answer, and the components that make up the UI screen are the same as those in the first embodiment, so descriptions thereof will be omitted.

図19又は図20に例示した第3質問表示画面にて第3質問について回答(具体的な感情を選択)すると、図21に例示する抽出画像表示画面が表示される。抽出画像表示画面について、図21を用いて説明する。 When the third question is answered (specific emotion is selected) on the third question display screen illustrated in FIG. 19 or 20, an extracted image display screen illustrated in FIG. 21 is displayed. The extraction image display screen will be described with reference to FIG. 21 .

図21に例示するように、抽出画像表示画面は、日付表示領域151と、抽出画像表示領域156と、を備える。上述したように、予め本システムにより画像のスコアリングを行うことにより所定枚数の画像が抽出され、端末装置30に送信されたが、これら抽出された画像(図21の例では15枚の画像)が、抽出画像表示画面の抽出画像表示領域156に表示される。また、この抽出画像表示領域15の中から選択して親子の話題に取り上げたい画像がある場合などに、当該写真を選択することができてもよい。 As illustrated in FIG. 21, the extracted image display screen includes a date display area 151 and an extracted image display area 156. FIG. As described above, a predetermined number of images were extracted by scoring images in advance by this system and transmitted to the terminal device 30. These extracted images (15 images in the example of FIG. 21) is displayed in the extracted image display area 156 of the extracted image display screen. In addition, when there is an image that the user wants to select from the extracted image display area 15 and discuss with the parent and child, the photo may be selected.

実施の形態2に係る情報処理装置10による画像記憶処理は、実施の形態1の画像記憶処理(図12参照)と同様であるため、説明を省略する。 The image storage processing by the information processing apparatus 10 according to the second embodiment is the same as the image storage processing (see FIG. 12) of the first embodiment, so description thereof will be omitted.

また、実施の形態2に係る情報処理装置10による画像表示処理について図13を用いて説明する。図13は、実施の形態1の画像表示処理を示したものであるが、ステップS201のみ処理の内容が異なるためこれについて説明する。実施の形態2のステップS201では、画像識別部131が画像のスコアリングを行うことにより所定枚数の画像が抽出され、これら抽出された所定枚数の画像が端末装置30に送信される。その際、抽出された所定枚数の画像の中から、本システムによりさらに抽出された所定枚数の画像のみが、選択対象画像表示領域155に表示される対象として送信される。これらの選択対象画像表示領域155に表示される対象である画像は、例えば、メタデータにある情報を付す等して判別可能な状態で端末装置30に送信される。図13に例示した他のステップについては第1の実施形態と同様であるため説明を省略する。 Also, image display processing by the information processing apparatus 10 according to the second embodiment will be described with reference to FIG. 13 . FIG. 13 shows the image display processing of Embodiment 1, and only step S201 differs in the content of the processing, so this will be described. In step S<b>201 of the second embodiment, the image identification unit 131 performs image scoring to extract a predetermined number of images, and the extracted predetermined number of images are transmitted to the terminal device 30 . At this time, only a predetermined number of images further extracted by the present system from among the predetermined number of extracted images are transmitted as objects to be displayed in the selection target image display area 155 . The images to be displayed in the selection target image display area 155 are transmitted to the terminal device 30 in a recognizable state, for example, by adding certain information to the metadata. Other steps illustrated in FIG. 13 are the same as those in the first embodiment, so description thereof is omitted.

また、実施の形態2に係る端末装置30による画像表示処理について図22を用いて説明する。図22は、に係る端末装置30による画像表示処理を示したものであるが、ステップS302~S304は実施の形態1に係る端末装置30による画像表示処理(図14参照)と同様のため、説明を簡易化する。 Also, image display processing by the terminal device 30 according to the second embodiment will be described with reference to FIG. 22 . FIG. 22 shows the image display processing by the terminal device 30 according to the first embodiment, but since steps S302 to S304 are the same as the image display processing by the terminal device 30 according to the first embodiment (see FIG. 14), the description is omitted. to simplify.

図15に例示した選択画面の選択対象画像表示領域155には、所定枚数の画像がユーザにより選択可能な態様で表示されている。ステップS301では、次のUI画面で表示したい画像や、続く質問や回答の対象としたい(話題として取り上げた)画像を、例えばインジケーターを用いて切り替えて表示させ、「選択する」のボタンを押下すことで選択する。続くステップS302において、図16に例示した第1質問表示画面が表示され、ユーザが第1質問に対して、「ポジティブ」又は「ネガティブの」感情を回答すれば、ステップS303に進む。ステップS303では、図17又は図18に例示した第2質問表示画面が表示され、ユーザが第2質問に対して、具体的な感情を回答すれば、ステップS304に進む。続くステップS304では、図19又は図20に例示した第3質問表示画面が表示され、ユーザが第3質問に対してアクションを回答すれば、ステップS305に進む。 In the selection target image display area 155 of the selection screen illustrated in FIG. 15, a predetermined number of images are displayed in a manner that can be selected by the user. In step S301, an image to be displayed on the next UI screen and an image to be targeted for subsequent questions and answers (taken up as a topic) are switched and displayed using, for example, an indicator, and a "select" button is pressed. Select by In subsequent step S302, the first question display screen illustrated in FIG. 16 is displayed, and if the user responds to the first question with a "positive" or "negative" feeling, the process proceeds to step S303. In step S303, the second question display screen illustrated in FIG. 17 or 18 is displayed, and if the user answers the second question with a specific emotion, the process proceeds to step S304. In subsequent step S304, the third question display screen illustrated in FIG. 19 or 20 is displayed, and if the user answers the third question with an action, the process proceeds to step S305.

ステップS305では、図21に例示した抽出画像表示画面が表示される。予め本システムにより画像のスコアリングを行うことにより所定枚数の画像が抽出され、端末装置30に送信されたが、これら抽出された画像(図21の例では15枚の画像)が、抽出画像表示画面の抽出画像表示領域156に表示される。また、この抽出画像表示領域15の中から選択して親子の話題に取り上げたい画像がある場合などに、当該写真を選択することができてもよい。 In step S305, the extraction image display screen illustrated in FIG. 21 is displayed. A predetermined number of images were extracted by scoring the images in advance by this system and transmitted to the terminal device 30. These extracted images (15 images in the example of FIG. 21) are displayed as the extracted images. It is displayed in the extracted image display area 156 of the screen. In addition, when there is an image that the user wants to select from the extracted image display area 15 and discuss with the parent and child, the photo may be selected.

<その他>
本実施形態において、1つのUI画面上に、日付表示領域151、主画像表示領域152、質問表示領域153、及び副画像表示領域154を備えるものとしたが、これらはそれぞれ、異なるUI画面上に備えられるものであってもよい。その場合、各領域を1つずつ備えたUI画面を用意し、例えば、日付表示領域151を備えた1つのUI画面を表示させた後に、主画像表示領域152を備えた1つのUI画面を表示させ、その次に、質問表示領域153を備えた1つのUI画面を表示させ、その次に、副画像表示領域154を備えた1つのUI画面を表示させてもよい。また、これらの領域151~154のうち、複数の領域を組み合わせて1つのUI画面を表示させてもよい。
<Others>
In this embodiment, the date display area 151, the main image display area 152, the question display area 153, and the sub-image display area 154 are provided on one UI screen. It may be provided. In that case, a UI screen having each area is prepared. For example, after displaying one UI screen having the date display area 151, one UI screen having the main image display area 152 is displayed. Then, one UI screen with the question display area 153 may be displayed, and then one UI screen with the sub-image display area 154 may be displayed. Further, one UI screen may be displayed by combining a plurality of areas among these areas 151 to 154 .

また、本システムは保護者から第3回答、すなわち、具体的にとったアクションに関する情報を得るが、このアクションに関する情報と、例えば、その後の子供の笑顔が写っている写真の割合とを学習させ、その子供に適したアクションを示唆してもよい。また、例えば、本システムを利用する前後で子供に非認知能力を計測するためのテストを受講してもらい、そのテストのスコアと保護者がとったアクションとの関係を学習させ、その子供の非認知能力を高めるためのアクションを提示してもよい。 In addition, the system obtains a third answer from the parent, that is, information about the specific action taken. , may suggest appropriate actions for that child. In addition, for example, before and after using this system, the child may take a test to measure non-cognitive ability, learn the relationship between the score of the test and the action taken by the guardian, and learn the non-cognitive ability of the child. Actions to enhance cognitive ability may be presented.

また、UI画面上に、本システム利用後の保護者の所感をテキストで入力可能な領域を設けてもよい。例えば、入力されたテキストの数が多く、子供の感情がポジティブである場合、親子の会話が盛り上がったものと判断してもよいし、入力されたテキストの数が少なく、子供の感情がネガティブである場合、親子の会話が盛り上がらず会話が進まなかったものと判断してもよい。そしてさらに上記のような学習を取り入れることにより、子供に適したアクションを提示してもよい。 Also, on the UI screen, an area may be provided in which the parent's impression after using this system can be input in text. For example, if the number of input texts is large and the child's emotions are positive, it may be determined that the parent-child conversation is lively, and if the number of input texts is small and the child's emotions are negative, it may be determined that the conversation is lively. In some cases, it may be determined that the parent-child conversation did not progress and did not progress. Further, by incorporating the learning as described above, an action suitable for the child may be presented.

また、主画像表示領域152や副画像表示領域154に表示させる画像をチューニングしてもよい。例えば、上記テストやテキスト入力により会話が進んだか否か、又は、非認知能力が向上したか否かがわかる場合、会話が進む画像をより表示させるように画像を抽出したり、非認知能力が向上するような画像を表示させるように画像を抽出してもよい。 Also, the images displayed in the main image display area 152 and the sub-image display area 154 may be tuned. For example, if it is known whether or not the conversation has progressed by the above test or text input, or whether or not non-cognitive ability has improved, extract the image so that the image of the progress of the conversation can be displayed more, or the non-cognitive ability Images may be extracted to display images that improve.

撮影装置20が撮影した画像に写された人物を識別する際に、例えば画像中における人物の顔の大きさ又は向き等によっては識別精度が低下する可能性がある。そこで、情報処理装置10は、例えば、画像に写された人物を追跡する処理(トラッキング処理)を併用して、人物の識別を行ってもよい。 When identifying a person in an image captured by the imaging device 20, there is a possibility that the accuracy of identification may decrease depending on, for example, the size or orientation of the person's face in the image. Therefore, the information processing apparatus 10 may identify the person by using, for example, a process (tracking process) of tracking the person in the image.

情報処理装置10は、画像に人物の顔が大きく写されている場合又は画像に写されている人物の顔が正面(撮影装置20)を向いている場合等のように識別精度が高いことが期待できる画像に基づく人物の識別結果を基準とし、この画像に続く一又は複数の画像に対してトラッキング処理を行う。トラッキング処理は、連続的に撮影された複数の画像において、対象物の移動を追跡する処理であり、例えばBoosting、MIL(Multiple Instance Learning)、TLD(Tracking Learning and Detection)、MedianFlow又はKCF(Kernelized Correlation Filters)等の手法が用いられ得る。情報処理装置10は、トラッキング処理により同じ人物が写されていると判断できる複数の画像に対して、基準となる画像における人物の識別結果(例えば識別の確信度等)を後続の画像についての識別結果とし、後続の画像に識別結果の情報を付して記憶してもよい。 The information processing apparatus 10 may have high identification accuracy when a person's face appears large in the image, or when the person's face in the image faces the front (photographing device 20). Based on the expected person identification result based on the image, the tracking process is performed on one or more images following this image. Tracking processing is processing for tracking the movement of an object in a plurality of images that are continuously captured, for example, Boosting, MIL (Multiple Instance Learning), TLD (Tracking Learning and Detection), Median Flow or KCF (Kernelized Correlation Filters) or the like can be used. The information processing apparatus 10 uses a plurality of images in which it can be determined that the same person is shown by tracking processing, and uses the identification result (for example, identification confidence) of the person in the reference image to identify the subsequent image. As a result, subsequent images may be stored with information of identification results attached.

<まとめ>
以上の構成の本実施形態に係る情報処理システム1では、情報処理装置10が条件に応じて抽出した一又は複数の画像を端末装置30がUI画面の副画像表示領域154に一覧表示し、一覧表示した一又は複数の画像から一の画像の選択を受け付け、選択された画像を主画像表示領域152に表示する。これにより、ユーザが定めた条件に適合する画像が複数存在する場合に、ユーザは複数の画像の中から所望の一の画像を容易に選択することができる。
<Summary>
In the information processing system 1 according to the present embodiment configured as described above, the terminal device 30 displays a list of one or a plurality of images extracted by the information processing device 10 according to the conditions in the sub-image display area 154 of the UI screen. A selection of one image from the one or more displayed images is received, and the selected image is displayed in the main image display area 152 . Accordingly, when there are a plurality of images that meet the conditions defined by the user, the user can easily select a desired image from among the plurality of images.

また、本実施形態に係る情報処理システム1では、施設の利用者(子供)又はその関係者(保護者)が使用する端末装置30は、この利用者に関する画像を表示する。これにより情報処理システム1は、端末装置30の使用者に適切な画像表示を行うことが期待できる。 Further, in the information processing system 1 according to the present embodiment, the terminal device 30 used by the user (child) of the facility or the related person (guardian) displays an image related to the user. Accordingly, the information processing system 1 can be expected to perform appropriate image display for the user of the terminal device 30 .

なお、本実施形態においては、撮影装置20を設置する施設を保育園又は幼稚園等とし、撮影装置20が施設を利用する子供の撮影を行う構成を示したが、施設は保育園又は幼稚園等に限らず、どのような施設であってもよい。施設は、屋内又は屋外のいずれのものであってもよい。また、施設には複数の撮影装置20が設置されてよく、複数の撮影装置20が情報処理装置10へ撮影した画像を送信してよい。また、条件に応じた画像の抽出を情報処理装置10が行うものとしたが、これに限るものではなく、端末装置30が行ってもよい。 In the present embodiment, the facility in which the imaging device 20 is installed is a nursery school, a kindergarten, or the like, and the configuration in which the imaging device 20 photographs children using the facility is shown, but the facility is not limited to a nursery school, a kindergarten, or the like. , at any facility. The facility may be either indoors or outdoors. Also, a plurality of photographing devices 20 may be installed in the facility, and images photographed by the plurality of photographing devices 20 may be transmitted to the information processing device 10 . Also, although the information processing apparatus 10 extracts the image according to the condition, the extraction is not limited to this, and the terminal apparatus 30 may perform the extraction.

また、図示したUI画面は一例であって、これに限るものではなく、各領域の配置及びデザイン等は適宜に変更され得る。また、本実施形態においては、UI画面の質問表示領域153にて表情の選択を受け付けたが、表情の選択に代えて、又は、表情の選択と共に、画像に写された人の行動を条件として選択可能としてもよい。 Also, the illustrated UI screen is only an example, and the present invention is not limited to this, and the arrangement and design of each area may be changed as appropriate. In addition, in the present embodiment, the selection of the facial expression is accepted in the question display area 153 of the UI screen. It may be selectable.

今回開示された実施形態は例示であり、制限的なものではない。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative and not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 In addition, the present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. Embodiments are also included in the technical scope of the present invention.

1 情報処理システム
10 情報処理装置
11 通信部
12 記憶部
13 制御部
20 撮影装置
30 端末装置
31 通信部
32 記憶部
33 制御部
34 操作部
35 表示部
101 プロセッサ
102 メモリ
103 ストレージ
104 通信I/F
105 入出力I/F
106 ドライブ装置
107 入力装置
108 出力装置
120 画像記憶部
121 ユーザDB
122 サーバプログラム
123 学習モデ
124 質問情報記憶部
125 アクション情報記憶部
130 画像受信部
131 画像識別部
132 画像選別部
133 画像送信部
134 質問送信部
135 回答受信部
136 アクション送信部
137 学習部
151 日付表示領域
152 主画像表示領域
153 質問表示領域
154 副画像表示領域
155 選択対象画像表示領域
156 抽出画像表示領域
301 プロセッサ
302 メモリ
303 ストレージ
304 通信I/F
305 入出力I/F
306 ドライブ装置
307 入力装置
308 出力装置
309 ディスクメディア
340 ユーザプログラム
330 表示処理部
331 条件取得部
1 information processing system 10 information processing device 11 communication unit 12 storage unit 13 control unit 20 photographing device 30 terminal device 31 communication unit 32 storage unit 33 control unit 34 operation unit 35 display unit 101 processor 102 memory 103 storage 104 communication I/F
105 input/output I/F
106 Drive device 107 Input device 108 Output device 120 Image storage unit 121 User DB
122 server program 123 learning model 124 question information storage unit 125 action information storage unit 130 image reception unit 131 image identification unit 132 image selection unit 133 image transmission unit 134 question transmission unit 135 answer reception unit 136 action transmission unit 137 learning unit 151 date display Area 152 Main image display area 153 Question display area 154 Sub-image display area 155 Selection target image display area 156 Extracted image display area 301 Processor 302 Memory 303 Storage 304 Communication I/F
305 input/output I/F
306 drive device 307 input device 308 output device 309 disk medium 340 user program 330 display processing unit 331 condition acquisition unit

一実施形態にかかる情報処理装置が実行する情報処理方法は、施設の利用者を撮影した画像を、画像以外の情報と共に提供する方法であって、利用者が利用する施設に設置された撮影装置が撮影した画像から、抽出された画像を表示する処理と、前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を表示する処理と、前記利用者の関係者に対してとり得るアクションを表示する処理と、を含む。 An information processing method executed by an information processing apparatus according to an embodiment is a method of providing an image of a facility user photographed together with information other than the image, and is a method of providing a photographing apparatus installed in a facility used by the user. a process of displaying an image extracted from an image taken by the user; a process of displaying a first question about the image; and a first selection candidate as an answer to the first question; and displaying possible actions to the parties involved .

一実施形態にかかる情報処理装置が実行する情報処理方法は、施設の子供を撮影した画像を、画像以外の情報と共に提供する方法であって、子供が利用する施設に設置された撮影装置が撮影した画像から、前記施設で過ごす前記子供の様子を撮影した画像を抽出して表示する処理と、前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を表示する処理と、前記子供に対して前記子供の保護者がとり得るアクションを表示する処理と、を含む。 An information processing method executed by an information processing apparatus according to an embodiment is a method of providing an image of a child photographed in a facility together with information other than the image . a process of extracting and displaying an image of the child spending time at the facility from the images taken, a first question about the image, and a first selection candidate as an answer to the first question; and displaying actions that the child 's parents can take on the child.

Claims (11)

情報処理装置が、
利用者が利用する施設に設置された撮影装置が撮影した画像から、抽出された画像を表示し、
前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を表示し、
前記利用者に対してとるアクションを表示する、
情報処理方法。
The information processing device
Display an image extracted from an image captured by a camera installed in a facility used by the user,
displaying a first question about the image and a first selection candidate as an answer to the first question;
displaying actions to take for said user;
Information processing methods.
第1の感情に対応付けられた文字又は画像を前記第1の選択候補として複数表示し、
前記第1の選択候補に基づいて前記第1の感情の選択を受け付ける、
請求項1に記載の情報処理方法。
displaying a plurality of characters or images associated with the first emotion as the first selection candidates;
accepting selection of the first emotion based on the first selection candidate;
The information processing method according to claim 1 .
前記第1の選択候補と共に、当該第1の選択候補が選択された場合に表示可能な画像の数を表示する、
請求項2に記載の情報処理方法。
Displaying together with the first selection candidate, the number of images that can be displayed when the first selection candidate is selected;
The information processing method according to claim 2.
前記画像についての第2の質問を表示し、
第2の感情に対応付けられた文字又は画像を第2の選択候補として複数表示し、
前記第2の選択候補に基づいて前記第2の感情の選択を受け付ける、
請求項2に記載の情報処理方法。
displaying a second question about the image;
displaying a plurality of characters or images associated with the second emotion as second selection candidates;
accepting selection of the second emotion based on the second selection candidate;
The information processing method according to claim 2.
前記第2の感情は前記第1の感情を具体化したものであり、
前記第2の選択候補は前記第1の選択候補を具体化したものである、
請求項4に記載の情報処理方法。
the second emotion is an embodiment of the first emotion,
The second selection candidate is an embodiment of the first selection candidate,
The information processing method according to claim 4.
前記画像についての第3の質問を表示し、
アクションに対応付けられた文字又は画像を第3の選択候補として複数表示し、
前記第3の選択候補に基づいて前記アクションの選択を受け付ける、
請求項1に記載の情報処理方法。
displaying a third question about the image;
displaying a plurality of characters or images associated with the action as third selection candidates;
accepting selection of the action based on the third selection candidate;
The information processing method according to claim 1 .
前記アクションは、前記利用者の関係者が前記利用者に対してとるアクションであり、
前記第3の選択候補として前記関係者がとり得るアクションの選択候補を表示する、
請求項6に記載の情報処理方法。
The action is an action taken by a related party of the user with respect to the user,
Displaying selection candidates of actions that the person concerned can take as the third selection candidates;
The information processing method according to claim 6.
前記抽出された画像を表示する第1の領域と、
前記画像についての第1の質問、第2の質問、又は第3の質問と、前記第1の選択候補、前記第2の選択候補、又は前記第3の選択候補と、を表示して前記利用者に関する感情の選択を受け付ける第2の領域と、
前記第1の領域にて抽出された画像と共に抽出された一又は複数の画像を一覧表示して一の画像の選択を受け付ける第3の領域と、
を含む画面を表示部に表示する、
請求項1から請求項6までのいずれか1つに記載の情報処理方法。
a first area displaying the extracted image;
a first question, a second question, or a third question about the image; and the first selection candidate, the second selection candidate, or the third selection candidate; a second area for receiving a selection of emotions about the person;
a third area for displaying a list of one or more images extracted together with the image extracted in the first area and accepting selection of one image;
display on the display a screen containing
The information processing method according to any one of claims 1 to 6.
前記施設を利用する利用者又は当該利用者の関係者が使用する情報処理装置は、当該利用者に係る画像を表示し、
第1の質問、及び第2の質問は前記利用者の感情を選択するものであり、
第3の質問は前記関係者が前記利用者に対してとるアクションを選択するものである、
請求項1から請求項7までのいずれか1つに記載の情報処理方法。
An information processing device used by a user who uses the facility or a person related to the user displays an image of the user,
The first question and the second question select the user's emotion,
A third question selects an action that the participant will take with the user.
The information processing method according to any one of claims 1 to 7.
コンピュータに、
利用者が利用する施設に設置された撮影装置が撮影した画像から、抽出された画像を表示する処理と、
前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を表示する処理と、
前記利用者に対してとるアクションを表示する処理と、
をコンピュータに実行させるためのプログラム。
to the computer,
A process of displaying an image extracted from an image captured by an imaging device installed in a facility used by a user;
a process of displaying a first question about the image and a first selection candidate as an answer to the first question;
a process of displaying actions to be taken to the user;
A program that causes a computer to run
施設に設置された撮影装置が撮影した画像を取得する画像受信部と、
前記画像受信部が取得した画像に写された利用者を識別する識別部と、
前記利用者が利用する施設に設置された撮影装置が撮影した画像から、抽出された画像を端末装置へ送信し、前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を前記端末装置へ送信する通信部と、
を備える、情報処理装置。
an image receiving unit that acquires an image captured by an imaging device installed in a facility;
an identification unit that identifies a user appearing in the image acquired by the image reception unit;
An image extracted from an image captured by an image capturing device installed in a facility used by the user is transmitted to a terminal device, and a first question about the image and a first question as an answer to the first question are sent to the terminal device. a selection candidate for and a communication unit that transmits to the terminal device;
An information processing device.
JP2021060980A 2021-03-31 2021-03-31 Information processing methods, programs, and information processing equipment Active JP7064159B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021060980A JP7064159B1 (en) 2021-03-31 2021-03-31 Information processing methods, programs, and information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021060980A JP7064159B1 (en) 2021-03-31 2021-03-31 Information processing methods, programs, and information processing equipment

Publications (2)

Publication Number Publication Date
JP7064159B1 JP7064159B1 (en) 2022-05-10
JP2022156996A true JP2022156996A (en) 2022-10-14

Family

ID=81535284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021060980A Active JP7064159B1 (en) 2021-03-31 2021-03-31 Information processing methods, programs, and information processing equipment

Country Status (1)

Country Link
JP (1) JP7064159B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4608655B2 (en) * 2005-05-24 2011-01-12 国立大学法人広島大学 Learning support device, learning support device control method, learning support device control program, and computer-readable recording medium
JP2012089909A (en) * 2010-10-15 2012-05-10 Sony Corp Information processor, and synchronization method and program
JP2018156453A (en) * 2017-03-17 2018-10-04 グローリー株式会社 System, method, and program for providing images
US20210043106A1 (en) * 2019-08-08 2021-02-11 COGNITIVEBOTICS Technologies Pvt. Ltd. Technology based learning platform for persons having autism

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4608655B2 (en) * 2005-05-24 2011-01-12 国立大学法人広島大学 Learning support device, learning support device control method, learning support device control program, and computer-readable recording medium
JP2012089909A (en) * 2010-10-15 2012-05-10 Sony Corp Information processor, and synchronization method and program
JP2018156453A (en) * 2017-03-17 2018-10-04 グローリー株式会社 System, method, and program for providing images
US20210043106A1 (en) * 2019-08-08 2021-02-11 COGNITIVEBOTICS Technologies Pvt. Ltd. Technology based learning platform for persons having autism

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
[ONLINE]KIDSLY 保育園向けサービス, JPN6021023667, 23 December 2019 (2019-12-23), ISSN: 0004650957 *

Also Published As

Publication number Publication date
JP7064159B1 (en) 2022-05-10

Similar Documents

Publication Publication Date Title
US20240054117A1 (en) Artificial intelligence platform with improved conversational ability and personality development
CN107316520B (en) Video teaching interaction method, device, equipment and storage medium
JP7070652B2 (en) Information processing systems, information processing methods, and programs
TW201104644A (en) Interactive information system, interactive information method, and computer readable medium thereof
JP6649005B2 (en) Robot imaging system and image management method
Foster It's all in a meme: A content analysis of memes posted to 2012 presidential election Facebook pages
Isabella et al. Emotional contagion and socialization: Reflection on virtual interaction
CN111369275B (en) Group identification and description method, coordination device and computer readable storage medium
Allen Tweeting, Texting, and Facebook Postings: Stirring the Pot with Social Media to Make Drama-Case Study and Participant Observation.
JP7064159B1 (en) Information processing methods, programs, and information processing equipment
Syeda et al. Photo Alive!: elderly oriented social communication service
JP7141921B2 (en) Picture book reading system and program
JP7371770B2 (en) Avatar control program, avatar control method, and information processing device
Foley et al. Bridging the gap: Design for intergenerational engagement in dementia care
KR101912554B1 (en) Fairy tale creation and sharing system
Glasser Empirical Investigations and Dataset Collection for American Sign Language-Aware Personal Assistants
Donaldson et al. ECHOES: encouraging companionship, home organization, and entertainment in seniors
Mochocki Heritage, authenticity, and the fiction/nonfiction Dualism in Attentat 1942
JPWO2021229692A5 (en)
Gao et al. Designing to enhance student participation in campus heritage using augmented reality
JP2019023876A (en) Image management system and image management method
Patel et al. A study of cultural effects on mobile-collocated group photo sharing
JP7044337B1 (en) Content usage record analysis system, content usage record analysis method and content usage record analysis program
Chiou Enhancing the museum experience through seamless and intuitive digital guidance
Opeyemi et al. WeChat Uses and Gratifications Among Young Malaysian Adults In Klang Valley, Malaysia

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210331

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7064159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150