JP7102856B2 - Content output system, content output device and program - Google Patents

Content output system, content output device and program Download PDF

Info

Publication number
JP7102856B2
JP7102856B2 JP2018063592A JP2018063592A JP7102856B2 JP 7102856 B2 JP7102856 B2 JP 7102856B2 JP 2018063592 A JP2018063592 A JP 2018063592A JP 2018063592 A JP2018063592 A JP 2018063592A JP 7102856 B2 JP7102856 B2 JP 7102856B2
Authority
JP
Japan
Prior art keywords
image
content
content output
output system
output device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018063592A
Other languages
Japanese (ja)
Other versions
JP2019176365A (en
Inventor
錬 松山
拓也 生駒
直之 伊藤
聡 田端
益丈 小沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2018063592A priority Critical patent/JP7102856B2/en
Publication of JP2019176365A publication Critical patent/JP2019176365A/en
Application granted granted Critical
Publication of JP7102856B2 publication Critical patent/JP7102856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、コンテンツ出力システム、コンテンツ出力装置及びプログラムに関する。 The present invention relates to a content output system, a content output device and a program.

昨今、例えば、街中や駅構内における広告では、デジタルサイネージ等によるデジタル画像や映像を用いたものが主流になってきている。しかし、デジタルサイネージに表示する広告は、例えば、テレビのCM等と変わらない内容であったりすることが多く、通行人の関心を惹きつける要素が少なかった。
他方、SNSサービスに投稿された写真を印刷し、印刷された写真をサイネージに表示する技術が開示されている(例えば、特許文献1)。
In recent years, for example, advertisements in the streets and in train stations have become mainstream using digital images and videos produced by digital signage and the like. However, the advertisement displayed on the digital signage often has the same content as that of a TV commercial, for example, and there are few elements that attract the attention of passers-by.
On the other hand, a technique for printing a photo posted on an SNS service and displaying the printed photo on signage is disclosed (for example, Patent Document 1).

特開2017-208006号公報JP-A-2017-208006

特許文献1に記載のものは、イベント会場や店舗等に設置したサイネージ装置に、SNSサービスに投稿され、それが印刷された写真を表示することで、来場者や来店者にプリンタの設置を知らせるためのものである。
このように、イベント会場や店舗等において、来場者や来店者等のユーザに有用な情報を提供すれば、ユーザの関心を惹きつけるものになり得る。
The one described in Patent Document 1 is posted to the SNS service on a signage device installed at an event venue, a store, etc., and a printed photograph is displayed to notify the visitor or the store of the installation of the printer. It is for.
In this way, if useful information is provided to users such as visitors and store visitors at event venues and stores, it can be of interest to users.

そこで、本発明は、ユーザに有用な情報を提供し得るコンテンツ出力システム、コンテンツ出力装置及びプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a content output system, a content output device, and a program that can provide useful information to a user.

本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、視野内を撮影する撮像手段と、前記撮像手段により撮影された画像を送信する送信手段と、を有する撮影装置と、前記撮影装置により撮影された前記画像を含むコンテンツを受信して出力するコンテンツ出力装置と、を備えたコンテンツ出力システムであって、前記コンテンツ出力装置は、前記撮影装置により撮影された前記画像を解析して、解析結果に応じて出力するコンテンツを判別する画像判別手段と、前記画像判別手段により判別された前記コンテンツを出力するコンテンツ出力手段と、を備えること、を特徴とするコンテンツ出力システムである。
第2の発明は、第1の発明のコンテンツ出力システムにおいて、前記撮影装置は、音声を含む動画像を、前記画像として取得し、前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して画像認識処理及び音声認識処理のうち少なくとも一方を行って、混雑度合いに応じて出力するコンテンツを判別すること、を特徴とするコンテンツ出力システムである。
第3の発明は、第1の発明又は第2の発明のコンテンツ出力システムにおいて、前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して画像認識処理を行って、顔画像を含むか否かを判別し、前記コンテンツ出力装置は、前記画像に顔画像を含むと判別した場合には、前記顔画像の領域に対して画像処理を行って、画像処理後の画像を含む前記コンテンツを生成するコンテンツ加工手段を備えること、を特徴とするコンテンツ出力システムである。
第4の発明は、第1の発明から第3の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置の前記画像判別手段は、異なる位置を撮影する複数の前記撮影装置により撮影された画像を各々含む複数のコンテンツから1以上の前記コンテンツを判別すること、を特徴とするコンテンツ出力システムである。
第5の発明は、第1の発明から第4の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置は、前記画像に関するタグを付与するタグ付与手段と、前記タグ付与手段により付与された前記タグに基づいて、前記画像に対して優先順位を付与する順位付与手段と、を備え、前記コンテンツ出力装置の前記コンテンツ出力手段は、さらに、前記順位付与手段により付与された優先順位に基づいて、前記コンテンツを出力すること、を特徴とするコンテンツ出力システムである。
第6の発明は、第5の発明のコンテンツ出力システムにおいて、前記コンテンツ出力装置は、前記コンテンツ出力装置に表示された前記コンテンツに対する評価を受け付ける評価受付手段を備え、前記コンテンツ出力装置の前記順位付与手段は、前記評価受付手段が受け付けた評価に基づいて、前記画像に対して優先順位を付与すること、を特徴とするコンテンツ出力システムである。
第7の発明は、第1の発明から第6の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置は、前記画像に関するコメントを受け付けるコメント受付手段を備え、前記コンテンツ出力装置は、前記コメント受付手段が受け付けたコメントを前記コンテンツに付加するコメント付加手段を備えること、を特徴とするコンテンツ出力システムである。
第8の発明は、第1の発明から第7の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置の前記コンテンツ出力手段は、コンテンツを表示するコンテンツ表示装置に対して、前記コンテンツを出力すること、を特徴とするコンテンツ出力システムである。
第9の発明は、第8の発明のコンテンツ出力システムにおいて、前記撮影装置は、特定の空間に設けられ、前記コンテンツ表示装置は、前記特定の空間に関連した場所に設けられ、前記画像には、撮影位置が対応付けられており、前記コンテンツ出力装置は、前記撮影位置を含む地図と、前記画像とを含む前記コンテンツを生成するコンテンツ生成手段を備えること、を特徴とするコンテンツ出力システムである。
第10の発明は、視野内を撮影する撮像手段と、前記撮像手段により撮影された画像を送信する送信手段と、を有する撮影装置に対して通信可能に接続されたコンテンツ出力装置であって、前記撮影装置により撮影された前記画像を解析して、解析結果に応じて出力するコンテンツを判別する画像判別手段と、前記画像判別手段により判別されたコンテンツを出力するコンテンツ出力手段と、を備えること、を特徴とするコンテンツ出力装置である。
第11の発明は、第1の発明から第9の発明までのいずれかのコンテンツ出力システムの前記コンテンツ出力装置としてコンピュータを機能させるためのプログラムである。
The present invention solves the above problems by the following solutions.
The first invention receives an imaging device having an imaging means for photographing the inside of a visual field, a transmitting means for transmitting an image captured by the imaging means, and a content including the image captured by the photographing device. This is a content output system including a content output device for outputting the content, and the content output device analyzes the image captured by the photographing device and determines the content to be output according to the analysis result. It is a content output system including an image discriminating means and a content output means for outputting the content discriminated by the image discriminating means.
According to a second aspect of the present invention, in the content output system of the first invention, the photographing device acquires a moving image including sound as the image, and the image discriminating means of the content output device refers to the image. It is a content output system characterized in that at least one of an image recognition process and a voice recognition process is performed to determine the content to be output according to the degree of congestion.
According to a third invention, in the content output system of the first invention or the second invention, whether or not the image discriminating means of the content output device performs image recognition processing on the image and includes a face image. When the content output device determines that the image includes a face image, the content output device performs image processing on the area of the face image to generate the content including the image after the image processing. It is a content output system characterized by being provided with content processing means for processing.
According to a fourth aspect of the present invention, in any of the content output systems from the first invention to the third invention, the image discriminating means of the content output device is photographed by a plurality of the photographing devices that photograph different positions. It is a content output system characterized in that one or more of the above-mentioned contents are discriminated from a plurality of contents including each image.
A fifth aspect of the present invention is the content output system according to any one of the first to fourth inventions, wherein the content output device is attached by a tagging means for attaching a tag related to the image and the tagging means. The content output means of the content output device further includes a ranking giving means for giving a priority to the image based on the tag, and further, the content output means of the content output device is based on the priority given by the ranking means. The content output system is characterized by outputting the content.
A sixth aspect of the present invention is the content output system of the fifth aspect, wherein the content output device includes an evaluation receiving means for receiving an evaluation of the content displayed on the content output device, and assigns the ranking of the content output device. The means is a content output system characterized in that priority is given to the image based on the evaluation received by the evaluation receiving means.
According to a seventh aspect of the present invention, in any of the content output systems from the first invention to the sixth invention, the content output device includes a comment receiving means for receiving a comment regarding the image, and the content output device is the content output device. The content output system is provided with a comment adding means for adding a comment received by the comment receiving means to the content.
According to an eighth invention, in any of the content output systems from the first invention to the seventh invention, the content output means of the content output device displays the content with respect to the content display device for displaying the content. It is a content output system characterized by outputting.
According to a ninth aspect of the present invention, in the content output system of the eighth aspect, the photographing device is provided in a specific space, the content display device is provided in a place related to the specific space, and the image is described. , The shooting position is associated with the content output device, and the content output device is a content output system including a map including the shooting position and a content generation means for generating the content including the image. ..
A tenth aspect of the present invention is a content output device that is communicably connected to an imaging device having an imaging means for photographing the inside of a visual field and a transmitting means for transmitting an image captured by the imaging means. It is provided with an image discriminating means for analyzing the image taken by the photographing device and discriminating the content to be output according to the analysis result, and a content output means for outputting the content discriminated by the image discriminating means. It is a content output device characterized by.
The eleventh invention is a program for operating a computer as the content output device of any of the content output systems from the first invention to the ninth invention.

本発明によれば、ユーザに有用な情報を提供し得るコンテンツ出力システム、コンテンツ出力装置及びプログラムを提供することができる。 According to the present invention, it is possible to provide a content output system, a content output device, and a program that can provide useful information to a user.

第1実施形態に係るコンテンツ出力システムの全体概要図である。It is an overall schematic diagram of the content output system which concerns on 1st Embodiment. 第1実施形態に係るコンテンツ処理サーバの機能ブロック図である。It is a functional block diagram of the content processing server which concerns on 1st Embodiment. 第1実施形態に係るコンテンツ処理サーバのコンテンツ表示処理を示すフローチャートである。It is a flowchart which shows the content display processing of the content processing server which concerns on 1st Embodiment. 第1実施形態に係る表示装置での表示例を示す図である。It is a figure which shows the display example in the display device which concerns on 1st Embodiment. 第2実施形態に係るコンテンツ出力システムの全体概要図である。It is an overall schematic diagram of the content output system which concerns on 2nd Embodiment. 第2実施形態に係るコンテンツ処理サーバ及び表示装置の機能ブロック図である。It is a functional block diagram of the content processing server and the display device which concerns on 2nd Embodiment. 第2実施形態に係るコンテンツ処理サーバのコンテンツ生成処理を示すフローチャートである。It is a flowchart which shows the content generation processing of the content processing server which concerns on 2nd Embodiment. 第2実施形態に係るコンテンツ処理サーバのコンテンツ表示処理を示すフローチャートである。It is a flowchart which shows the content display processing of the content processing server which concerns on 2nd Embodiment. 第2実施形態に係る表示装置での表示例を示す図である。It is a figure which shows the display example in the display device which concerns on 2nd Embodiment. 第2実施形態に係る表示装置のコンテンツ評価受付処理を示すフローチャートである。It is a flowchart which shows the content evaluation acceptance processing of the display device which concerns on 2nd Embodiment.

以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(第1実施形態)
<コンテンツ出力システム100>
図1は、第1実施形態に係るコンテンツ出力システム100の全体概要図である。
図2は、第1実施形態に係るコンテンツ処理サーバ1の機能ブロック図である。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. It should be noted that this is only an example, and the technical scope of the present invention is not limited to this.
(First Embodiment)
<Content output system 100>
FIG. 1 is an overall schematic view of the content output system 100 according to the first embodiment.
FIG. 2 is a functional block diagram of the content processing server 1 according to the first embodiment.

図1に示すコンテンツ出力システム100は、例えば、大勢の人が集うような場所であるショッピングモールや、イベント会場の入口等、その場所に関連する位置にあり、人が通る際に目に付く場所に、表示装置4(コンテンツ表示装置、コンテンツ出力装置)を設置する。そして、コンテンツ出力システム100は、ショッピングモールやイベント会場等の内部の様子を、カメラ5を使用して撮影し、撮影した画像を含むコンテンツを表示装置4に表示させるシステムである。
以降の説明において、例えば、ショッピングモールや、イベント会場といった、人が集まる場所であって、このコンテンツ出力システム100の利用を想定する場所を、特定空間9という。
図1に示す例では、特定空間9は、複数の展示スペースを含むイベント会場である。
The content output system 100 shown in FIG. 1 is located at a position related to the place, such as a shopping mall where a large number of people gather, an entrance of an event venue, or the like, and is a place that is noticeable when people pass by. A display device 4 (content display device, content output device) is installed in the. The content output system 100 is a system in which the inside of a shopping mall, an event venue, or the like is photographed by using the camera 5, and the content including the photographed image is displayed on the display device 4.
In the following description, a place where people gather, such as a shopping mall or an event venue, where the content output system 100 is assumed to be used is referred to as a specific space 9.
In the example shown in FIG. 1, the specific space 9 is an event venue including a plurality of exhibition spaces.

図1及び図2に示すコンテンツ出力システム100は、コンテンツ処理サーバ1(コンテンツ出力装置)と、1台の表示装置4と、複数台のカメラ5(撮影装置)とを備える。コンテンツ処理サーバ1と、表示装置4と、カメラ5とは、通信ネットワークNを介して通信可能に接続されている。通信ネットワークNは、例えば、インターネット回線等である。また、通信ネットワークNは、例えば、Bluetooth(登録商標)規格に基づく短距離無線通信等を用いるものであってもよい。
なお、表示装置4は、1台に限らず、複数台設置してもよいし、カメラ5は、1台以上あればよく、いずれも数に制限はない。
The content output system 100 shown in FIGS. 1 and 2 includes a content processing server 1 (content output device), one display device 4, and a plurality of cameras 5 (shooting devices). The content processing server 1, the display device 4, and the camera 5 are communicably connected via the communication network N. The communication network N is, for example, an internet line or the like. Further, the communication network N may use, for example, short-range wireless communication based on the Bluetooth (registered trademark) standard.
The number of display devices 4 is not limited to one, and a plurality of display devices 4 may be installed, and the number of cameras 5 may be one or more, and the number of any of them is not limited.

<コンテンツ処理サーバ1>
コンテンツ処理サーバ1は、表示装置4に表示させるコンテンツに関する処理を行う。コンテンツ処理サーバ1は、カメラ5から取得した画像を判別し、判別結果に応じて、表示装置4に出力するコンテンツを生成して、表示装置4に送信する。
コンテンツ処理サーバ1は、例えば、サーバである。コンテンツ処理サーバ1は、その他、パーソナルコンピュータ(PC)等であってもよい。
コンテンツ処理サーバ1は、制御部10と、記憶部30と、通信インタフェース部39とを備える。
<Content processing server 1>
The content processing server 1 performs processing related to the content to be displayed on the display device 4. The content processing server 1 discriminates the image acquired from the camera 5, generates the content to be output to the display device 4 according to the discriminating result, and transmits the content to the display device 4.
The content processing server 1 is, for example, a server. The content processing server 1 may also be a personal computer (PC) or the like.
The content processing server 1 includes a control unit 10, a storage unit 30, and a communication interface unit 39.

制御部10は、コンテンツ処理サーバ1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部30に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、画像取得部11と、画像判別部13(画像判別手段)と、地図生成部16(地図生成手段)と、コンテンツ生成部17(コンテンツ加工手段、コンテンツ生成手段)と、コンテンツ送信部18(コンテンツ出力手段)とを備える。
The control unit 10 is a central processing unit (CPU) that controls the entire content processing server 1. The control unit 10 appropriately reads and executes the operating system (OS) and the application program stored in the storage unit 30 to cooperate with the above-mentioned hardware and execute various functions.
The control unit 10 includes an image acquisition unit 11, an image discrimination unit 13 (image discrimination means), a map generation unit 16 (map generation means), a content generation unit 17 (content processing means, content generation means), and content transmission. A unit 18 (content output means) is provided.

画像取得部11は、特定空間9を撮影する複数台のカメラ5により撮影された画像を、カメラ5から取得する。ここで、画像取得部11は、カメラ5から画像(コンテンツ)を直接受信してもよい。また、画像取得部11は、カメラ5により撮影された画像を含むコンテンツを、他の装置(図示せず)から受信してもよい。
画像判別部13は、画像取得部11によって取得した画像を解析して、解析結果に応じて出力するコンテンツを判別する。例えば、画像判別部13は、画像取得部11によって取得した画像に対して、画像認識処理を行って、人の混雑度合いに応じて出力するコンテンツを判別する。例えば、画像判別部13は、画像の混雑度合いが閾値以上である場合に、その画像を含むコンテンツを出力するコンテンツとして判別しもよい。また、画像判別部13は、混雑度合いが閾値以上である画像が複数ある場合には、複数の画像の各々を含む複数のコンテンツを、出力するコンテンツとして判別し、時間の経過と共に切り替えて表示させるようにしてもよい。
The image acquisition unit 11 acquires images taken by a plurality of cameras 5 that capture the specific space 9 from the cameras 5. Here, the image acquisition unit 11 may directly receive an image (content) from the camera 5. Further, the image acquisition unit 11 may receive the content including the image taken by the camera 5 from another device (not shown).
The image discrimination unit 13 analyzes the image acquired by the image acquisition unit 11 and discriminates the content to be output according to the analysis result. For example, the image discrimination unit 13 performs image recognition processing on the image acquired by the image acquisition unit 11 to determine the content to be output according to the degree of congestion of people. For example, when the degree of congestion of the image is equal to or higher than the threshold value, the image discrimination unit 13 may discriminate as the content to output the content including the image. Further, when there are a plurality of images whose congestion degree is equal to or higher than the threshold value, the image discrimination unit 13 determines a plurality of contents including each of the plurality of images as the contents to be output, and switches and displays the contents with the passage of time. You may do so.

画像認識処理の一例として、画像判別部13は、公知の手法により、画像に含まれる顔画像や、人を検出して、その数によって混雑度合いを判別してもよい。また、画像判別部13は、単に通りすがりの人を除外するために、検出した人等が立ち止まっている場合や、単位時間に対する移動距離が短い場合、つまり、人の動くスピードがゆっくりである場合に、その数をカウントして混雑度合いを判別してもよい。 As an example of the image recognition process, the image discrimination unit 13 may detect a face image or a person included in the image by a known method and determine the degree of congestion based on the number of the face image or the person. Further, the image discrimination unit 13 simply excludes a passing person when the detected person or the like is stopped, or when the moving distance with respect to the unit time is short, that is, when the moving speed of the person is slow. , The number may be counted to determine the degree of congestion.

ここで、人検出の手法としては、例えば、HOG特徴量を用いるものがある。HOG特徴量を用いた人検出に関しては、「N.Dalal and B.Triggs.Histograms of Oriented Gradients for Human Detection.In CVPR,pages886-893,2005」に記載されている。 Here, as a method for detecting a person, for example, there is a method using a HOG feature amount. Human detection using HOG features is described in "N. Dalal and B. Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886-893, 2005".

また、顔検出の手法としては、例えば、Haar-like特徴を用いるものがある。Haar-like特徴を用いた顔検出に関しては、「P.Viola and M.J.Jones:“Rapid Object Detection Using a Boosted Cascade of Simple Features”,Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,pp.511-518,(2001).」に記載されている。 Further, as a face detection method, for example, there is a method using a Haar-like feature. Regarding face detection using the Haar-like feature, "P. Viola and M.J. Jones:" Rapid Object Detection Using a Boosted Cascade of Simple Features ", Processings of Computer Vision 2001 Engine , Pp.511-518, (2001). ”.

地図生成部16は、コンテンツに含む画像を取得したカメラ5の撮影位置を含む、特定空間9の地図を生成する。具体的には、地図生成部16は、例えば、地図記憶部32に記憶された特定空間9の地図に、カメラ位置記憶部33に記憶された該当のカメラ5の位置を反映させる。
生成した地図は、表示装置4の設置位置と、特定空間9の位置とを考慮したものが望ましい。通行人は、表示装置4に対面する位置から表示装置4を見る。よって、地図生成部16は、表示装置4の上側が特定空間9の奥方向になり、表示装置4の下側が特定空間9の手前方向になるように地図を生成するのが望ましい。
The map generation unit 16 generates a map of the specific space 9 including the shooting position of the camera 5 that has acquired the image included in the content. Specifically, the map generation unit 16 reflects, for example, the position of the corresponding camera 5 stored in the camera position storage unit 33 on the map of the specific space 9 stored in the map storage unit 32.
It is desirable that the generated map considers the installation position of the display device 4 and the position of the specific space 9. A passerby looks at the display device 4 from a position facing the display device 4. Therefore, it is desirable that the map generation unit 16 generates a map so that the upper side of the display device 4 is in the back direction of the specific space 9 and the lower side of the display device 4 is in the front direction of the specific space 9.

コンテンツ生成部17は、画像に顔画像を含む場合に、コンテンツの顔画像の領域に対して画像処理による加工を行ってもよい。顔画像の領域に対する画像処理とは、顔や人物を特定できないようにするものであり、例えば、モザイクやぼかしを入れたり、予め用意したキャラクタ等の画像を合成したりする処理である。
そして、コンテンツ生成部17は、コンテンツに対して生成した地図を含んだ新たなコンテンツを生成する。
コンテンツ送信部18は、コンテンツ生成部17により生成されたコンテンツを、表示装置4に対して送信する。
When the image includes a face image, the content generation unit 17 may process the area of the face image of the content by image processing. The image processing for the area of the face image is a process for making it impossible to identify a face or a person, for example, adding a mosaic or blurring, or synthesizing an image of a character or the like prepared in advance.
Then, the content generation unit 17 generates new content including the map generated for the content.
The content transmission unit 18 transmits the content generated by the content generation unit 17 to the display device 4.

記憶部30は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
記憶部30は、プログラム記憶部31と、地図記憶部32と、カメラ位置記憶部33とを備える。
プログラム記憶部31は、各種のプログラムを記憶する記憶領域である。プログラム記憶部31は、コンテンツ処理プログラム31aを記憶している。コンテンツ処理プログラム31aは、コンテンツ処理サーバ1の制御部10が実行する各種機能を行うためのプログラムである。
The storage unit 30 is a storage area for a hard disk, a semiconductor memory element, or the like for storing programs, data, and the like necessary for the control unit 10 to execute various processes.
The storage unit 30 includes a program storage unit 31, a map storage unit 32, and a camera position storage unit 33.
The program storage unit 31 is a storage area for storing various programs. The program storage unit 31 stores the content processing program 31a. The content processing program 31a is a program for performing various functions executed by the control unit 10 of the content processing server 1.

地図記憶部32は、特定空間9の地図を記憶する記憶領域である。
カメラ位置記憶部33は、特定空間9に設置したカメラ5の位置を記憶する記憶領域である。
通信インタフェース部39は、通信ネットワークNを介して表示装置4及びカメラ5との間の通信を行うためのインタフェースである。
The map storage unit 32 is a storage area for storing a map of the specific space 9.
The camera position storage unit 33 is a storage area for storing the position of the camera 5 installed in the specific space 9.
The communication interface unit 39 is an interface for performing communication between the display device 4 and the camera 5 via the communication network N.

ここで、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、コンテンツ処理サーバ1は、制御部10、記憶部30等を備えた情報処理装置であり、コンピュータの概念に含まれる。 Here, the computer means an information processing device including a control unit, a storage device, and the like, and the content processing server 1 is an information processing device including a control unit 10, a storage unit 30, and the like, and is included in the concept of a computer. Is done.

<表示装置4>
図1に示す表示装置4は、例えば、縦が1.5~2m程度で、横幅が1~1.5m程度の液晶ディスプレイ等のモニタ(デジタルサイネージ)を有する装置である。上述したように、表示装置4は、例えば、特定空間9の入口付近に設置する。そして、表示装置4は、コンテンツ処理サーバ1から受信した特定空間9の画像を含むコンテンツを表示する。
<Display device 4>
The display device 4 shown in FIG. 1 is, for example, a device having a monitor (digital signage) such as a liquid crystal display having a length of about 1.5 to 2 m and a width of about 1 to 1.5 m. As described above, the display device 4 is installed near the entrance of the specific space 9, for example. Then, the display device 4 displays the content including the image of the specific space 9 received from the content processing server 1.

<カメラ5>
カメラ5は、特定空間9に設置され、特定空間9の内部を撮影する。
カメラ5は、視野内を撮影する撮像手段と、撮像手段により撮影された画像を送信する送信手段とを備える。
カメラ5は、例えば、監視カメラ等であってもよい。また、カメラ5は、動画像を撮影し続けるものであっても、所定の時間間隔で静止画を撮影するものであってもよい。以降の説明において、撮影した画像は、動画像であるものとして説明する。
<Camera 5>
The camera 5 is installed in the specific space 9 and photographs the inside of the specific space 9.
The camera 5 includes an imaging means for photographing the field of view and a transmitting means for transmitting an image captured by the imaging means.
The camera 5 may be, for example, a surveillance camera or the like. Further, the camera 5 may continuously capture moving images or may capture still images at predetermined time intervals. In the following description, the captured image will be described as a moving image.

<コンテンツ表示処理>
次に、表示装置4にコンテンツを表示させる処理について説明する。
図3は、第1実施形態に係るコンテンツ処理サーバ1のコンテンツ表示処理を示すフローチャートである。
図4は、第1実施形態に係る表示装置4での表示例を示す図である。
<Content display processing>
Next, a process of displaying the content on the display device 4 will be described.
FIG. 3 is a flowchart showing the content display processing of the content processing server 1 according to the first embodiment.
FIG. 4 is a diagram showing a display example in the display device 4 according to the first embodiment.

図3のステップS(以下、単に「S」という。)10において、コンテンツ処理サーバ1の制御部10(画像取得部11)は、各カメラ5によって撮影された画像を、各カメラ5から取得する。画像取得部11は、カメラ5の電源が投入されている間は、常時、カメラ5から画像を取得してもよい。また、画像取得部11は、1分おき等の所定のタイミングで定期的に、カメラ5から画像を取得してもよい。 In step S (hereinafter, simply referred to as “S”) 10 of FIG. 3, the control unit 10 (image acquisition unit 11) of the content processing server 1 acquires an image taken by each camera 5 from each camera 5. .. The image acquisition unit 11 may acquire an image from the camera 5 at all times while the power of the camera 5 is turned on. Further, the image acquisition unit 11 may acquire an image from the camera 5 periodically at a predetermined timing such as every one minute.

S11において、制御部10(画像判別部13)は、取得した各画像に対して画像認識技術を用いた画像認識処理をすることで、各画像の混雑度合いを判別する。
S12において、制御部10は、判別結果として最も混雑度合いが高い画像を、出力するコンテンツとして特定する。
S13において、制御部10(コンテンツ生成部17)は、特定した画像から顔画像を抽出し、抽出した顔画像に対して加工処理を行う。この処理によって、加工処理後の画像を含むコンテンツは、人がいることは分かるが、人物を特定できないものになる。
In S11, the control unit 10 (image discrimination unit 13) discriminates the degree of congestion of each image by performing image recognition processing using the image recognition technique on each acquired image.
In S12, the control unit 10 specifies the image having the highest degree of congestion as the discrimination result as the content to be output.
In S13, the control unit 10 (content generation unit 17) extracts a face image from the specified image and performs processing on the extracted face image. By this processing, it is possible to know that there is a person in the content including the processed image, but the person cannot be identified.

S14において、制御部10は、S12で特定した画像を撮影したカメラ5の位置を、カメラ位置記憶部33に基づいて取得する。
S15において、制御部10(地図生成部16)は、特定したカメラ5の位置を含む地図を生成する。制御部10は、地図記憶部32から、特定空間9の地図を抽出し、特定したカメラ5の位置を、抽出した地図に配置した地図を生成する。
In S14, the control unit 10 acquires the position of the camera 5 that captured the image specified in S12 based on the camera position storage unit 33.
In S15, the control unit 10 (map generation unit 16) generates a map including the position of the specified camera 5. The control unit 10 extracts a map of the specific space 9 from the map storage unit 32, and generates a map in which the positions of the specified cameras 5 are arranged on the extracted map.

S16において、制御部10(コンテンツ生成部17)は、生成した地図と、加工処理後の画像とを含むコンテンツを生成する。
S17において、制御部10(コンテンツ送信部18)は、生成したコンテンツを表示装置4に送信する。その後、制御部10は、処理をS10に移し、取得した画像を用いてコンテンツを生成し、表示装置4に送信する処理を繰り返す。この繰り返し処理は、例えば、所定のタイミングで定期的に行う。
In S16, the control unit 10 (content generation unit 17) generates content including the generated map and the processed image.
In S17, the control unit 10 (content transmission unit 18) transmits the generated content to the display device 4. After that, the control unit 10 shifts the process to S10, generates content using the acquired image, and repeats the process of transmitting the content to the display device 4. This iterative process is performed periodically, for example, at a predetermined timing.

コンテンツ処理サーバ1の制御部10は、上述した処理を、カメラ5から画像を取得したことに応じて即時に行う。そして、制御部10は、即時処理によって生成されたコンテンツを、表示装置4に送信する。よって、表示装置4に表示されるコンテンツは、ほぼリアルタイムに特定空間9の状況を示す。 The control unit 10 of the content processing server 1 immediately performs the above-mentioned processing in response to the acquisition of an image from the camera 5. Then, the control unit 10 transmits the content generated by the immediate processing to the display device 4. Therefore, the content displayed on the display device 4 shows the situation of the specific space 9 in almost real time.

図4は、特定空間9の入口に設置された表示装置4に、コンテンツ40が表示されている例を示す。
コンテンツ40は、大別して画像領域41と、地図領域42とから構成されている。
画像領域41には、最も混雑度合いが高い位置の画像であって、顔画像等に加工処理を施した画像を表示する。この例では、最も混雑度合いが高い位置のカメラ5は、展示スペースAに設置されている。この画像領域41に表示された画像は、展示スペースAの混雑度合いを、ほぼリアルタイムに反映している。
FIG. 4 shows an example in which the content 40 is displayed on the display device 4 installed at the entrance of the specific space 9.
The content 40 is roughly divided into an image area 41 and a map area 42.
In the image area 41, an image at a position having the highest degree of congestion, which is a processed image of a face image or the like, is displayed. In this example, the camera 5 at the position with the highest degree of congestion is installed in the exhibition space A. The image displayed in the image area 41 reflects the degree of congestion of the exhibition space A in almost real time.

地図領域42には、画像領域41を撮影したカメラ5の位置42aを、地図に示した特定空間9の地図を表示する。地図領域42に示す地図は、特定空間9の入口を下側としたものであるため、表示装置4を見た通行人等を、特定空間9の位置42aによって示される展示スペースAに、間違えることなく向かわせることができる。
なお、図4に示すように、画像領域41に表示されている画像の撮影場所である「展示スペースA」を、名称領域43に表示させてもよい。例えば、カメラ位置記憶部33に記憶されたカメラ5の位置に、名称を対応付けて記憶しておけば、コンテンツ処理サーバ1は、名称領域43に名称を配置してコンテンツを生成できるため、コンテンツに、場所の名称を表示できる。
In the map area 42, the position 42a of the camera 5 in which the image area 41 is captured is displayed as a map of the specific space 9 shown on the map. Since the map shown in the map area 42 has the entrance of the specific space 9 on the lower side, a passerby or the like who sees the display device 4 may be mistaken for the exhibition space A indicated by the position 42a of the specific space 9. You can go without it.
As shown in FIG. 4, the “exhibition space A”, which is the shooting location of the image displayed in the image area 41, may be displayed in the name area 43. For example, if the name is associated with the position of the camera 5 stored in the camera position storage unit 33 and stored, the content processing server 1 can arrange the name in the name area 43 and generate the content. The name of the place can be displayed.

このように、第1実施形態のコンテンツ出力システム100によれば、以下のような効果がある。
(1)コンテンツ処理サーバ1は、カメラ5が撮影した画像から混雑度合いを判別して、混雑度合いが高い画像を含むコンテンツを、特定空間9の入口に設置された表示装置4に表示させる。よって、入口付近で表示装置4を見た通行人等は、画像によって賑わっている様子を見ることができ、画像の撮影場所の好奇心を掻き立てることができ、特定空間9に通行人を向かわせる動機づけになり得る。
(2)コンテンツ処理サーバ1は、複数のカメラ5から画像を取得し、取得した画像のうち、最も混雑度合いの高い画像を用いたコンテンツを出力する。よって、複数の場所のうち、通行人がより興味を持ちやすい画像を含むコンテンツを出力できる。
(3)コンテンツ処理サーバ1は、カメラ5から画像を取得したことに応じて、表示装置4にコンテンツを出力する。よって、表示装置4は、ほぼリアルタイムの画像を表示することができる。
As described above, according to the content output system 100 of the first embodiment, there are the following effects.
(1) The content processing server 1 determines the degree of congestion from the image taken by the camera 5, and displays the content including the image having a high degree of congestion on the display device 4 installed at the entrance of the specific space 9. Therefore, a passerby or the like who sees the display device 4 near the entrance can see the crowded state by the image, can arouse the curiosity of the place where the image is taken, and directs the passerby to the specific space 9. Can be motivating.
(2) The content processing server 1 acquires images from a plurality of cameras 5, and outputs content using the image having the highest degree of congestion among the acquired images. Therefore, it is possible to output content including an image that is more interesting to passers-by among a plurality of places.
(3) The content processing server 1 outputs the content to the display device 4 in response to the acquisition of the image from the camera 5. Therefore, the display device 4 can display an image in almost real time.

(4)コンテンツ処理サーバ1は、取得した画像に対して顔画像がある場合には、顔画像の領域に対して画像処理を行う。よって、写り込んだ人の顔が特定できないように加工をしたものを、コンテンツとして表示装置4に表示できるため、プライバシーの保護の観点からも優れたものにできる。
(5)コンテンツ処理サーバ1は、コンテンツを構成する画像の撮影位置を、地図上に示し、画像と地図とを含むコンテンツを生成して、表示装置4に送信する。よって、表示装置4では、画像と地図とを含むコンテンツを表示でき、表示装置4を見た通行人が、画像が示す特定空間9の位置を把握しやすくできる。結果として、通行人を、画像が撮影された場所に誘導できる。
(4) When the acquired image has a face image, the content processing server 1 performs image processing on the area of the face image. Therefore, since the processed content so that the face of the person in the image cannot be identified can be displayed on the display device 4 as the content, it can be excellent from the viewpoint of privacy protection.
(5) The content processing server 1 indicates the shooting position of the image constituting the content on the map, generates the content including the image and the map, and transmits the content to the display device 4. Therefore, the display device 4 can display the content including the image and the map, and the passerby who sees the display device 4 can easily grasp the position of the specific space 9 indicated by the image. As a result, passers-by can be guided to the place where the image was taken.

なお、第1実施形態によるコンテンツ出力システム100は、種々の変形が可能である。 The content output system 100 according to the first embodiment can be modified in various ways.

(1)混雑度合いの判別には、種々の方法が考えられる。例えば、カメラ5による撮影範囲にマイクを設置し、周囲の音(音声)を集音することで、音声認識処理によって混雑度合いを判別してもよい。また、音声認識処理と、画像認識処理との両方の処理によって、混雑度合いを判別してもよい。 (1) Various methods can be considered for determining the degree of congestion. For example, by installing a microphone in the shooting range of the camera 5 and collecting ambient sounds (voices), the degree of congestion may be determined by voice recognition processing. Further, the degree of congestion may be determined by both the voice recognition process and the image recognition process.

(2)混雑度合いを判別し、混雑度合いが高い画像を、出力するコンテンツとして判別するものに限定されない。第1実施形態に記載のように、混雑度合いが高い画像を、出力するコンテンツとして判別した場合には、コンテンツは、混んでいる状態を表すので、賑わっている様子を示すことものにできる。そのため、コンテンツを見た人を賑わいに参加させ、特定空間9がさらに盛り上がる動機づけになり得る。
逆に、混雑度合いが低い画像を、出力するコンテンツとして判別するものであってもよい。混雑度合いが低い画像を、出力するコンテンツとして判別することで、例えば、その画像がランチを提供する店舗である場合に、ランチ時間にコンテンツを見た人に、直ぐに入店できるという情報を与えることができ、来客させる動機づけになり得、また、集客に貢献し得る。
(2) The degree of congestion is discriminated, and the image having a high degree of congestion is not limited to the one to be discriminated as the output content. As described in the first embodiment, when an image having a high degree of congestion is determined as the content to be output, the content represents a crowded state, so that it can indicate a busy state. Therefore, it can be a motivation to make the specific space 9 even more exciting by having people who see the content participate in the liveliness.
On the contrary, an image having a low degree of congestion may be discriminated as the content to be output. By discriminating an image with a low degree of congestion as the content to be output, for example, when the image is a store that provides lunch, it is possible to give information to a person who sees the content at lunch time that the store can be entered immediately. It can be a motivation to attract customers and can contribute to attracting customers.

(3)また、混雑度合いが閾値以上の画像が複数ある場合には、各画像を含むコンテンツを、時間の経過と共にコンテンツを切り替えて表示装置4に表示させてもよい。
さらに、混雑度合いが閾値以上の画像がない場合には、予め生成されて記憶部30に記憶されたコンテンツを、表示装置4に表示させてもよい。
(4)地図記憶部32とカメラ位置記憶部33とを用いて地図を生成するものに限られない。地図記憶部32に、各カメラ5の位置を含む地図を記憶しておけば、カメラ位置記憶部33を参照して地図を生成しなくても、地図記憶部32に記憶された該当のカメラ5の位置を含む地図を取得するようにしてもよい。
(3) Further, when there are a plurality of images whose congestion degree is equal to or higher than the threshold value, the content including each image may be displayed on the display device 4 by switching the content with the passage of time.
Further, when there is no image whose degree of congestion is equal to or higher than the threshold value, the content generated in advance and stored in the storage unit 30 may be displayed on the display device 4.
(4) The map is not limited to the one that generates a map by using the map storage unit 32 and the camera position storage unit 33. If a map including the position of each camera 5 is stored in the map storage unit 32, the corresponding camera 5 stored in the map storage unit 32 does not need to refer to the camera position storage unit 33 to generate a map. You may want to get a map that includes the location of.

(第2実施形態)
第2実施形態では、ユーザが所持するカメラで撮影した画像を含むコンテンツを、表示装置に表示させるものについて説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
(Second Embodiment)
In the second embodiment, the content including the image taken by the camera possessed by the user is displayed on the display device. In the following description, the same reference numerals or the same reference numerals will be added to the parts that perform the same functions as those in the first embodiment described above, and duplicate description will be omitted as appropriate.

<コンテンツ出力システム200>
図5は、第2実施形態に係るコンテンツ出力システム200の全体概要図である。
図6は、第2実施形態に係るコンテンツ処理サーバ201及び表示装置204の機能ブロック図である。
<Content output system 200>
FIG. 5 is an overall schematic view of the content output system 200 according to the second embodiment.
FIG. 6 is a functional block diagram of the content processing server 201 and the display device 204 according to the second embodiment.

図5に示すコンテンツ出力システム200は、例えば、レストラン等の入口であって、人が通る際に目に付く場所に、表示装置204を設置する。表示装置204を設置する場所は、特定空間209の近くである。特定空間209は、人がその場所に関するコメントを、ソーシャルネットワーキングサービス(SNS)等を使って発信するような場所である。そして、コンテンツ出力システム200は、特定空間209にいるユーザP1が、特定空間209の中で自身の携帯端末207を用いて撮影した画像を投稿することで、画像を含むコンテンツを、表示装置204に表示させるシステムである。
以降において、特定空間209は、レストランの店内であるとして説明する。
In the content output system 200 shown in FIG. 5, for example, the display device 204 is installed at an entrance of a restaurant or the like, which is conspicuous when a person passes by. The place where the display device 204 is installed is near the specific space 209. The specific space 209 is a place where a person sends a comment about the place by using a social networking service (SNS) or the like. Then, in the content output system 200, the user P1 in the specific space 209 posts an image taken by the user P1 in the specific space 209 using his / her own mobile terminal 207, so that the content including the image is displayed on the display device 204. It is a system to display.
Hereinafter, the specific space 209 will be described as being inside a restaurant.

なお、図5では、1人のユーザP1が、携帯端末207を用いて投稿するものを例に説明するが、他のユーザも、自身の携帯端末207を用いて特定空間209の内部を撮影し、撮影した画像等をコンテンツ処理サーバ201に送信してもよい。また、ユーザP1は、店員等であってもよい。 In FIG. 5, one user P1 posts using the mobile terminal 207 as an example, but other users also use their own mobile terminal 207 to photograph the inside of the specific space 209. , The captured image or the like may be transmitted to the content processing server 201. Further, the user P1 may be a clerk or the like.

図6に示すコンテンツ出力システム200は、コンテンツ処理サーバ201と、1台の表示装置204と、1台以上の携帯端末207とを備える。コンテンツ処理サーバ201と、表示装置204とは、通信ネットワークNを介して通信可能に接続されている。
携帯端末207は、基地局Bを介して通信ネットワークNに接続されている。基地局Bは、無線通信の基地局であって、携帯端末207がコンテンツ処理サーバ201との間で通信をするための中継を行う。基地局Bは、例えば、Wi-Fi等の無線LAN(Local Area Network)の基地局や、通信事業者の携帯端末通信網用の基地局である。そして、基地局Bは、例えば、特定空間209に設置され、特定空間209にある携帯端末207のみが通信可能である。
つまり、携帯端末207は、特定空間209でのみ、コンテンツ処理サーバ201と通信が可能である。
The content output system 200 shown in FIG. 6 includes a content processing server 201, one display device 204, and one or more mobile terminals 207. The content processing server 201 and the display device 204 are communicably connected to each other via the communication network N.
The mobile terminal 207 is connected to the communication network N via the base station B. The base station B is a base station for wireless communication, and relays the mobile terminal 207 for communication with the content processing server 201. The base station B is, for example, a base station of a wireless LAN (Local Area Network) such as Wi-Fi, or a base station for a mobile terminal communication network of a telecommunications carrier. Then, the base station B is installed in the specific space 209, for example, and only the mobile terminal 207 in the specific space 209 can communicate with the base station B.
That is, the mobile terminal 207 can communicate with the content processing server 201 only in the specific space 209.

<コンテンツ処理サーバ201>
コンテンツ処理サーバ201は、携帯端末207から画像を取得し、取得した画像を判別した結果に応じて、画像を含むコンテンツを生成して、表示装置204に送信する。
コンテンツ処理サーバ201は、制御部210と、記憶部230と、通信インタフェース部39とを備える。
制御部210は、画像取得部211と、コメント受付部212(コメント受付手段)と、画像判別部213(画像判別手段)と、タグ付与部214(タグ付与手段)と、順位付与部215(順位付与手段)と、コンテンツ生成部217(コメント付加手段)と、コンテンツ送信部18と、評価受付部220(評価受付手段)とを備える。
<Content processing server 201>
The content processing server 201 acquires an image from the mobile terminal 207, generates content including the image according to the result of determining the acquired image, and transmits the content to the display device 204.
The content processing server 201 includes a control unit 210, a storage unit 230, and a communication interface unit 39.
The control unit 210 includes an image acquisition unit 211, a comment receiving unit 212 (comment receiving means), an image discriminating unit 213 (image discriminating means), a tagging unit 214 (tagging means), and a ranking giving unit 215 (ranking). (Giving means), a content generating unit 217 (comment adding means), a content transmitting unit 18, and an evaluation receiving unit 220 (evaluation receiving means).

画像取得部211は、特定空間209の中でユーザP1が携帯端末207を操作して撮影した画像を、携帯端末207から受信することで取得する。画像取得部211は、基地局B及び通信ネットワークNを介して画像を取得する。
コメント受付部212は、ユーザP1が入力したコメントを、携帯端末207から受信することで受け付ける。コメントは、例えば、画像ついてのユーザP1の感想等である。
The image acquisition unit 211 acquires an image taken by the user P1 by operating the mobile terminal 207 in the specific space 209 by receiving the image from the mobile terminal 207. The image acquisition unit 211 acquires an image via the base station B and the communication network N.
The comment receiving unit 212 receives the comment input by the user P1 from the mobile terminal 207. The comment is, for example, the impression of the user P1 about the image.

画像判別部213は、画像取得部211によって取得した画像を判別する。画像判別部213は、例えば、取得した画像に位置情報を含むメタ情報を有する場合には、位置情報が特定空間209の位置を示すものであるか否かを判別することで、取得した画像が特定空間209で撮影されたものであるか否かを判別してもよい。また、画像判別部213は、例えば、取得した画像に日時情報を含むメタ情報を有する場合には、日時情報が現在日時に近いものであるか否かを判別して、取得した画像が直近に撮影されたものであるか否かを判別してもよい。さらに、画像判別部213は、画像認識処理によって、被写体を判別してもよい。そして、画像判別部213は、上述の判別結果により、画像をコンテンツとして出力するか否かを判別する。 The image discrimination unit 213 discriminates the image acquired by the image acquisition unit 211. For example, when the acquired image has meta information including position information, the image discrimination unit 213 determines whether or not the position information indicates the position of the specific space 209, so that the acquired image can be obtained. It may be determined whether or not the image was taken in the specific space 209. Further, for example, when the acquired image has meta information including the date and time information, the image discrimination unit 213 determines whether or not the date and time information is close to the current date and time, and the acquired image is the latest. It may be determined whether or not the image was taken. Further, the image discrimination unit 213 may discriminate the subject by the image recognition process. Then, the image discrimination unit 213 determines whether or not to output the image as content based on the above-mentioned discrimination result.

タグ付与部214は、画像に関するタグを付与する。タグ付与部214は、例えば、画像判別部213による判別結果を用いて、タグを付与してもよい。具体的には、タグ付与部214は、画像に含まれる被写体の内容を、タグとして付与してもよい。
タグ付与部214は、例えば、公知の説明文生成ソフトウェアである“DenseCap”を使用して、画像データに関する説明文を生成した上で、翻訳し、翻訳した説明文から単語を取得して、それをタグとしてタグ付けに用いてもよい。
また、タグ付与部214は、携帯端末207のユーザP1の属性を、タグとして付与してもよい。ユーザP1の属性とは、年齢、性別等であり、携帯端末207や、携帯端末207と通信可能なサーバ(図示せず)に記憶されたユーザP1の属性を用いてもよいし、ユーザP1に属性を入力させてもよい。また、図示しない特定空間209を撮影するカメラによってユーザP1を撮影し、ユーザP1の画像から属性を得てもよい。
The tagging unit 214 adds a tag related to the image. The tag-giving unit 214 may attach a tag by using, for example, the discrimination result by the image discrimination unit 213. Specifically, the tagging unit 214 may tag the content of the subject included in the image as a tag.
The tagging unit 214 uses, for example, known description generation software "DenseCap" to generate a description regarding image data, translates the data, obtains a word from the translated description, and obtains a word from the translated description. May be used for tagging as a tag.
Further, the tag giving unit 214 may give the attribute of the user P1 of the mobile terminal 207 as a tag. The attributes of the user P1 are age, gender, etc., and the attributes of the user P1 stored in the mobile terminal 207 or a server (not shown) capable of communicating with the mobile terminal 207 may be used, or the user P1 may use the attributes. You may be asked to enter attributes. Further, the user P1 may be photographed by a camera that photographs the specific space 209 (not shown), and the attribute may be obtained from the image of the user P1.

順位付与部215は、タグ付けがされた画像に対して優先順位を付与する。順位付与部215は、例えば、画像全体に占める特定空間209で提供される商品等の割合が高いものから順に、優先順位を付与してもよい。また、順位付与部215は、後述する評価受付部220が受け付けた評価に基づいて、優先順位を付与してもよい。さらに、順位付与部215は、コンテンツ処理サーバ201の管理者等が優先順位を入力することで、画像に優先順位を付与してもよい。
コンテンツ生成部217は、画像取得部211が取得した画像に、その画像に対するコメントを付加したコンテンツを生成する。
評価受付部220は、表示装置204に表示されたコンテンツに対する評価を受け付ける。
The ranking unit 215 assigns a priority to the tagged image. The ranking-giving unit 215 may, for example, assign priorities in descending order of the proportion of products or the like provided in the specific space 209 in the entire image. Further, the ranking giving unit 215 may give a priority based on the evaluation received by the evaluation receiving unit 220 described later. Further, the ranking giving unit 215 may give a priority to the image by inputting the priority by the administrator or the like of the content processing server 201.
The content generation unit 217 generates content in which a comment for the image is added to the image acquired by the image acquisition unit 211.
The evaluation receiving unit 220 receives an evaluation for the content displayed on the display device 204.

記憶部230は、プログラム記憶部231と、コンテンツ記憶部234とを備える。
プログラム記憶部231は、コンテンツ処理サーバ201の制御部210が実行する各種機能を行うためのプログラムであるコンテンツ処理プログラム231aを記憶している。
コンテンツ記憶部234は、画像取得部211が取得した画像及びその画像に対するコメントを含むコンテンツを記憶する。また、コンテンツ記憶部234は、コンテンツに対応付けて、優先順位や評価を記憶する。
The storage unit 230 includes a program storage unit 231 and a content storage unit 234.
The program storage unit 231 stores the content processing program 231a, which is a program for performing various functions executed by the control unit 210 of the content processing server 201.
The content storage unit 234 stores the image acquired by the image acquisition unit 211 and the content including the comment for the image. In addition, the content storage unit 234 stores priorities and evaluations in association with the content.

<表示装置204>
表示装置204は、コンテンツ処理サーバ201から受信した特定空間209の画像を含むコンテンツを表示する装置である。
表示装置204は、制御部240と、記憶部245と、表示部246と、カメラ248と、通信部249とを備える。
制御部240は、表示装置204の全体を制御するCPUである。制御部240は、記憶部245に記憶されているOSやアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
記憶部245は、制御部240が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
<Display device 204>
The display device 204 is a device that displays the content including the image of the specific space 209 received from the content processing server 201.
The display device 204 includes a control unit 240, a storage unit 245, a display unit 246, a camera 248, and a communication unit 249.
The control unit 240 is a CPU that controls the entire display device 204. The control unit 240 executes various functions in cooperation with the above-mentioned hardware by appropriately reading and executing the OS and application programs stored in the storage unit 245.
The storage unit 245 is a storage area for a hard disk, a semiconductor memory element, or the like for storing programs, data, and the like necessary for the control unit 240 to execute various processes.

表示部246は、大型の液晶ディスプレイ等のモニタである。
カメラ248は、例えば、表示装置204の上側に設けられ、表示装置204の表示部246の対面にいる通行人P2を撮影する。また、カメラ248は、動画像を撮影し続ける。
通信部249は、通信ネットワークNを介してコンテンツ処理サーバ201との間の通信を行うためのインタフェースである。
なお、図6に示す例では、カメラ248は、表示装置204の一部に有するものであるが、カメラ248は、表示装置204と別体であってもよい。
The display unit 246 is a monitor such as a large liquid crystal display.
The camera 248 is provided on the upper side of the display device 204, for example, and takes a picture of a passerby P2 facing the display unit 246 of the display device 204. In addition, the camera 248 continues to capture moving images.
The communication unit 249 is an interface for communicating with the content processing server 201 via the communication network N.
In the example shown in FIG. 6, the camera 248 is included in a part of the display device 204, but the camera 248 may be a separate body from the display device 204.

<携帯端末207>
携帯端末207は、ユーザP1が所持する、例えば、スマートフォンやタブレットに代表されるコンピュータの機能を併せ持った携帯型の装置である。携帯端末207は、その他、携帯電話機等でもよいし、PC等であってもよい。
携帯端末207は、図示しないが、制御部、記憶部、タッチパネルディスプレイ、カメラ(撮影装置)、通信インタフェース部等を備える。カメラは、視野内を撮影する撮像手段としての機能を有し、通信インタフェース部は、撮像手段により撮影された画像を送信する送信手段としての機能を有する。そして、ユーザP1が特定空間209で、携帯端末207を操作することで、携帯端末207は、特定空間209を撮影した画像を取得し、撮影した画像に対するコメントの入力を受け付け、画像及びコメントを、コンテンツ処理サーバ201に送信(投稿)する。
<Mobile terminal 207>
The mobile terminal 207 is a portable device possessed by the user P1 that also has the functions of a computer represented by, for example, a smartphone or a tablet. The mobile terminal 207 may also be a mobile phone or the like, or a PC or the like.
Although not shown, the mobile terminal 207 includes a control unit, a storage unit, a touch panel display, a camera (photographing device), a communication interface unit, and the like. The camera has a function as an image pickup means for photographing the field of view, and the communication interface unit has a function as a transmission means for transmitting an image photographed by the image pickup means. Then, when the user P1 operates the mobile terminal 207 in the specific space 209, the mobile terminal 207 acquires an image of the specific space 209, accepts input of a comment for the photographed image, and receives the image and the comment. Send (post) to the content processing server 201.

<コンテンツ生成処理>
次に、表示装置204に表示させるコンテンツを生成する処理について説明する。
図7は、第2実施形態に係るコンテンツ処理サーバ201のコンテンツ生成処理を示すフローチャートである。
図7のS210において、コンテンツ処理サーバ201の制御部210(画像取得部211、コメント受付部212)は、携帯端末207から画像(コンテンツ)及びコメントを受信する。
ここで、携帯端末207では、コンテンツ処理サーバ201にアクセスし、例えば、Webサイトから撮影した画像とコメントとを登録してもよい。また、携帯端末207では、コンテンツを送信するためのアプリケーションプログラム(以下、アプリともいう。)をインストール及び起動して、アプリの実行にしたがって画像及びコメントを入力してもよい。
<Content generation processing>
Next, a process of generating the content to be displayed on the display device 204 will be described.
FIG. 7 is a flowchart showing the content generation process of the content processing server 201 according to the second embodiment.
In S210 of FIG. 7, the control unit 210 (image acquisition unit 211, comment reception unit 212) of the content processing server 201 receives an image (content) and a comment from the mobile terminal 207.
Here, the mobile terminal 207 may access the content processing server 201 and register, for example, an image taken from a website and a comment. Further, the mobile terminal 207 may install and start an application program (hereinafter, also referred to as an application) for transmitting the content, and input an image and a comment according to the execution of the application.

S211において、制御部210(画像判別部213)は、取得した各画像を判別する。制御部210は、取得した画像が、特定空間209で撮影されたものであるか否かを、例えば、画像のメタ情報によって判別してもよい。また、制御部210は、画像に対して画像認識処理をすることで、画像に写り込んでいるものを抽出して、表示対象に適しているか否かを判別してもよい。より具体的には、例えば、料理が中心に写り込む画像であれば、制御部210は、表示対象に適していると判別し、料理が一切写り込んでいない画像であれば、制御部210は、表示対象に適していないと判別してもよい。 In S211 the control unit 210 (image discrimination unit 213) discriminates each acquired image. The control unit 210 may determine whether or not the acquired image was taken in the specific space 209, for example, based on the meta information of the image. Further, the control unit 210 may perform image recognition processing on the image to extract what is reflected in the image and determine whether or not it is suitable for the display target. More specifically, for example, if the image shows the food in the center, the control unit 210 determines that the image is suitable for the display target, and if the image does not show the food at all, the control unit 210 determines. , It may be determined that it is not suitable for the display target.

S212において、制御部210は、画像判別処理によって、画像を、表示装置204への表示対象にするか否かを判定する。例えば、特定空間209で撮影された画像ではないと判別されたり、表示対象に適していないと判別されたりした場合には、表示対象にしないと判定する。表示対象にする場合(S212:YES)には、制御部210は、処理をS213に移す。他方、表示対象にしない場合(S212:NO)には、制御部210は、本処理を終了する。 In S212, the control unit 210 determines whether or not the image is to be displayed on the display device 204 by the image discrimination process. For example, if it is determined that the image is not taken in the specific space 209, or if it is determined that the image is not suitable for the display target, it is determined that the image is not to be displayed. When the display target is set (S212: YES), the control unit 210 shifts the process to S213. On the other hand, when the display target is not set (S212: NO), the control unit 210 ends this process.

S213において、制御部210(タグ付与部214)は、画像にタグ付けをする。タグは、例えば、画像認識処理結果から抽出した単語であってもよいし、その画像を撮影したユーザP1の属性であってもよい。
S214において、制御部210(順位付与部215)は、タグ付けされた画像が複数ある場合に、画像に順位付けをする。
S215において、制御部210(コンテンツ生成部217)は、画像を含むコンテンツにコメントを付加し、コンテンツ記憶部234に記憶させる。その後、制御部210は、本処理を終了する。
In S213, the control unit 210 (tagging unit 214) tags the image. The tag may be, for example, a word extracted from the image recognition processing result, or may be an attribute of the user P1 who has taken the image.
In S214, the control unit 210 (ranking unit 215) ranks the images when there are a plurality of tagged images.
In S215, the control unit 210 (content generation unit 217) adds a comment to the content including the image and stores it in the content storage unit 234. After that, the control unit 210 ends this process.

<コンテンツ表示処理>
次に、表示装置204にコンテンツを表示させる処理について説明する。
図8は、第2実施形態に係るコンテンツ処理サーバ201のコンテンツ表示処理を示すフローチャートである。
図9は、第2実施形態に係る表示装置204での表示例を示す図である。
図10は、第2実施形態に係る表示装置204のコンテンツ評価受付処理を示すフローチャートである。
<Content display processing>
Next, a process of displaying the content on the display device 204 will be described.
FIG. 8 is a flowchart showing the content display processing of the content processing server 201 according to the second embodiment.
FIG. 9 is a diagram showing a display example on the display device 204 according to the second embodiment.
FIG. 10 is a flowchart showing the content evaluation reception process of the display device 204 according to the second embodiment.

図8のS230において、コンテンツ処理サーバ1の制御部210(コンテンツ送信部18)は、コンテンツ記憶部234を参照し、優先順位に基づいてコンテンツを表示装置204に送信する。制御部210は、例えば、優先順位の高いコンテンツから順番にコンテンツを送信してもよい。また、制御部210は、例えば、優先順位の高いコンテンツを、優先順位の低いコンテンツよりも数多く表示装置204に送信してもよい。さらに、制御部210は、例えば、優先順位が高いコンテンツと、低いコンテンツとで、送信する日時や曜日等を変えてもよい。 In S230 of FIG. 8, the control unit 210 (content transmission unit 18) of the content processing server 1 refers to the content storage unit 234 and transmits the content to the display device 204 based on the priority. For example, the control unit 210 may transmit the contents in order from the content having the highest priority. Further, the control unit 210 may transmit, for example, more high-priority content to the display device 204 than the low-priority content. Further, the control unit 210 may change the transmission date / time, the day of the week, etc., for example, between the content having a high priority and the content having a low priority.

表示装置204には、図9に示すように、コンテンツ処理サーバ201から送信されたコンテンツ260が表示される。
コンテンツ260は、画像領域261と、コメント領域262とを含む。画像領域261の画像と、コメント領域262のコメントとは、ユーザP1が携帯端末207によって撮影及び入力されたものである。また、コンテンツ260は、コンテンツ260を見た通行人等が評価するための指示表示領域263と、評価結果表示領域264とを含む。
As shown in FIG. 9, the display device 204 displays the content 260 transmitted from the content processing server 201.
The content 260 includes an image area 261 and a comment area 262. The image in the image area 261 and the comment in the comment area 262 are taken and input by the user P1 by the mobile terminal 207. Further, the content 260 includes an instruction display area 263 for evaluation by a passerby or the like who has seen the content 260, and an evaluation result display area 264.

通行人P2がコンテンツ260を見て、コンテンツ260に対する評価をする場合には、図9に示すように、通行人P2は、「いいね」を表すジェスチャーをする。表示装置204のカメラ248は、表示装置204を見て「いいね」を表すジェスチャーをする通行人P2を撮影する。 When the passerby P2 looks at the content 260 and evaluates the content 260, the passerby P2 makes a gesture indicating "like" as shown in FIG. The camera 248 of the display device 204 takes a picture of the passerby P2 who looks at the display device 204 and makes a gesture indicating “like”.

ここで、表示装置204によるコンテンツ評価受付処理について、図10に基づき説明する。
図10のS250において、表示装置204の制御部240は、カメラ248で撮影した画像を、カメラ248から取得する。
S251において、制御部240は、取得した画像を解析する画像解析処理を行う。具体的には、制御部240は、画像に人物を含み、人物が所定のジェスチャー(この例では、「いいね」を表すジェスチャー)をしているか否かを判別する。
S252において、制御部240は、S251による判別結果として、評価対象画像であるか否かを判断する。評価対象画像である場合(S252:YES)には、制御部240は、処理をS253に移す。他方、評価対象画像ではない場合(S252:NO)には、制御部240は、処理をS254に移す。
Here, the content evaluation reception process by the display device 204 will be described with reference to FIG.
In S250 of FIG. 10, the control unit 240 of the display device 204 acquires an image taken by the camera 248 from the camera 248.
In S251, the control unit 240 performs an image analysis process for analyzing the acquired image. Specifically, the control unit 240 determines whether or not a person is included in the image and the person makes a predetermined gesture (in this example, a gesture indicating “like”).
In S252, the control unit 240 determines whether or not the image is an evaluation target image as a determination result by S251. In the case of the evaluation target image (S252: YES), the control unit 240 shifts the processing to S253. On the other hand, when the image is not the evaluation target image (S252: NO), the control unit 240 shifts the processing to S254.

S253において、制御部240は、評価をカウントして記憶部245に記憶し、さらに、カウントした評価をコンテンツに反映させる。
この処理によって、図9で出力しているコンテンツ260の評価結果表示領域264に表示された評価の数が、3から4に変わる。
S254において、制御部240は、表示するコンテンツが、次のコンテンツに変わったか否かを判断する。コンテンツが変わった場合(S254:YES)には、制御部240は、処理をS255に移す。他方、コンテンツが変わっていない場合(S254:NO)には、制御部240は、処理をS250に移し、本処理を繰り返す。
S255において、制御部240は、記憶部245に記憶された評価のカウント数を、評価結果として出力する。出力した評価結果は、コンテンツ処理サーバ201に送信される。その後、制御部240は、処理をS250に移し、本処理を繰り返す。
In S253, the control unit 240 counts the evaluations and stores them in the storage unit 245, and further reflects the counted evaluations in the content.
By this process, the number of evaluations displayed in the evaluation result display area 264 of the content 260 output in FIG. 9 changes from 3 to 4.
In S254, the control unit 240 determines whether or not the content to be displayed has changed to the next content. When the content is changed (S254: YES), the control unit 240 shifts the process to S255. On the other hand, when the content has not changed (S254: NO), the control unit 240 shifts the process to S250 and repeats this process.
In S255, the control unit 240 outputs the number of evaluation counts stored in the storage unit 245 as an evaluation result. The output evaluation result is transmitted to the content processing server 201. After that, the control unit 240 shifts the process to S250 and repeats this process.

図8の説明に戻り、S231において、制御部210(評価受付部220)は、コンテンツに対する評価を表示装置204から受け付けたか否かを判断する。具体的には、制御部210は、表示装置204が図10のS255において送信した、評価のカウント数を受信することで、コンテンツに対する評価を受け付ける。コンテンツに対する評価を受け付けた場合(S231:YES)には、制御部210は、処理をS232に移す。他方、コンテンツに対する評価を受け付けていない場合(S231:NO)には、制御部210は、本処理に留まる。
S232において、制御部210は、受け付けた評価を、コンテンツ記憶部234に反映させる。また、制御部210(順位付与部215)は、評価に基づいて、コンテンツの優先順位を付与する。その後、制御部210は、処理をS230に移し、コンテンツを表示装置204に送信する処理を繰り返す。
Returning to the description of FIG. 8, in S231, the control unit 210 (evaluation receiving unit 220) determines whether or not the evaluation of the content is received from the display device 204. Specifically, the control unit 210 receives the evaluation of the content by receiving the evaluation count number transmitted by the display device 204 in S255 of FIG. When the evaluation of the content is accepted (S231: YES), the control unit 210 shifts the process to S232. On the other hand, when the evaluation of the content is not accepted (S231: NO), the control unit 210 stays in this process.
In S232, the control unit 210 reflects the received evaluation in the content storage unit 234. Further, the control unit 210 (ranking unit 215) assigns the priority of the contents based on the evaluation. After that, the control unit 210 shifts the process to S230 and repeats the process of transmitting the content to the display device 204.

このように、第2実施形態のコンテンツ出力システム200によれば、以下のような効果がある。
(1)コンテンツ処理サーバ201は、ユーザP1の携帯端末207で撮影した画像及びコメントを含むコンテンツを、撮影場所である特定空間209の近傍に設置された表示装置204に表示させる。コンテンツは、ユーザP1によって撮影された画像及びコメントを含むので、臨場感があり、共感ができ、しかも、オリジナリティのあるものになる。よって、表示装置204を見た通行人P2に、興味を示させるコンテンツを提供でき、例えば、特定空間209に入る動機づけになり得る。また、ユーザP1は、自身が撮影した画像及び自身が入力したコメントが表示装置204に表示されるので、投稿する楽しさを提供でき、投稿する動機づけになり得る。
As described above, the content output system 200 of the second embodiment has the following effects.
(1) The content processing server 201 causes the display device 204 installed in the vicinity of the specific space 209, which is the shooting location, to display the content including the image and the comment taken by the mobile terminal 207 of the user P1. Since the content includes images and comments taken by the user P1, it is realistic, sympathetic, and original. Therefore, it is possible to provide the passerby P2 who sees the display device 204 with the content showing interest, and it can be a motivation to enter the specific space 209, for example. Further, since the image taken by the user P1 and the comment input by the user P1 are displayed on the display device 204, the user P1 can provide the enjoyment of posting and can be a motivation for posting.

(2)コンテンツ処理サーバ201は、画像に優先順位を付与して、優先順位に基づいてコンテンツを表示装置204に送信する。よって、優先順位の高いコンテンツを優先的に表示させることができる。
(3)コンテンツ処理サーバ201は、画像にタグを付与する。付与するタグは、画像の内容に関するものや、画像を撮影したユーザP1に関するものにできる。また、優先順位を、画像に付与されたタグに基づいて付与できる。よって、例えば、料理が大きく写った画像の優先順位を高くしたりできる。
(4)コンテンツ処理サーバ201は、通行人P2の評価に基づいて、優先順位を付与できる。よって、コンテンツを見た人の評価が高いコンテンツに、高い優先順位を付与でき、より優先的にコンテンツを表示させることができる。
(2) The content processing server 201 assigns a priority to the image and transmits the content to the display device 204 based on the priority. Therefore, the content having a high priority can be displayed preferentially.
(3) The content processing server 201 adds a tag to the image. The tag to be given can be related to the content of the image or related to the user P1 who has taken the image. In addition, the priority can be given based on the tag given to the image. Therefore, for example, it is possible to raise the priority of an image showing a large dish.
(4) The content processing server 201 can give a priority based on the evaluation of the passerby P2. Therefore, it is possible to give a high priority to the content that is highly evaluated by the person who viewed the content, and to display the content with higher priority.

なお、第2実施形態によるコンテンツ出力システム200は、種々の変形が可能である。 The content output system 200 according to the second embodiment can be modified in various ways.

(1)携帯端末207が特定空間209にある場合に、基地局Bを介したコンテンツ処理サーバ201との通信を可能にすることで、携帯端末207から受信した画像が特定空間209で撮影された画像であるという判定を行うものを例に説明した。しかし、携帯端末207から受信した画像が特定空間209で撮影された画像であるという判定は、種々の方法が考えられる。例えば、携帯端末207の位置情報を取得し、取得した位置が特定空間209の位置であることを条件に、携帯端末207により特定空間209で撮影された画像であると判定してもよい。 (1) When the mobile terminal 207 is in the specific space 209, the image received from the mobile terminal 207 is taken in the specific space 209 by enabling communication with the content processing server 201 via the base station B. An example of determining that the image is an image has been described. However, various methods can be considered for determining that the image received from the mobile terminal 207 is an image taken in the specific space 209. For example, the position information of the mobile terminal 207 may be acquired, and it may be determined that the image is taken by the mobile terminal 207 in the specific space 209, provided that the acquired position is the position of the specific space 209.

(2)携帯端末207から取得した画像を判別して表示対象にするか否かを判断したが、加えて、コメントの内容についても表示対象にするかを判断してもよい。コメントに、例えば、別途有する禁止ワード等の不適格な内容を含む場合、禁止ワードを除外して表示対象にしてもよいし、コメントを表示対象にしなくてもよい。 (2) Although it is determined whether or not the image acquired from the mobile terminal 207 is to be displayed, it may be determined whether or not the content of the comment is also to be displayed. When the comment includes ineligible contents such as a separately owned prohibited word, the prohibited word may be excluded and displayed, or the comment may not be displayed.

(3)表示装置204が、通行人P2の評価を受け付けて処理をするものを説明したが、カメラ248が撮影した画像を、コンテンツ処理サーバ201が受信して、コンテンツ処理サーバ201でコンテンツ評価受付処理を行ってもよい。
また、通行人P2の評価を、評価対象のジェスチャーを画像認識処理で判定することで受け付けたが、ジェスチャーに限定されない。例えば、表示装置204の方向を見ている時間と表情とによって、評価を算出してもよい。また、例えば、表示装置に操作部を設けて、通行人P2に操作をしてもらう等、他の方法で行われた評価を受け付けてもよい。
(3) Although the display device 204 has described the device that receives and processes the evaluation of the passerby P2, the content processing server 201 receives the image taken by the camera 248, and the content processing server 201 receives the content evaluation. Processing may be performed.
Further, the evaluation of the passerby P2 is accepted by determining the gesture to be evaluated by the image recognition process, but the evaluation is not limited to the gesture. For example, the evaluation may be calculated based on the time and facial expression of looking in the direction of the display device 204. Further, for example, an operation unit may be provided on the display device, and an evaluation performed by another method may be accepted, such as having a passerby P2 operate the display device.

(4)コンテンツ出力システム200は、ユーザP1が画像及びコメントを取得及び入力してコンテンツ処理サーバ201に送信するだけでも、ユーザP1に投稿する楽しみを与えることができるが、投稿したインセンティブとして、例えば、割引等をユーザP1に与えるようにしてもよい。そのようにすることで、ユーザP1が積極的に投稿する動機づけになり得る。 (4) The content output system 200 can give the user P1 the pleasure of posting even if the user P1 acquires and inputs an image and a comment and transmits the image and the comment to the content processing server 201. However, as an incentive for posting, for example. , Discounts, etc. may be given to the user P1. By doing so, it can be a motivation for the user P1 to actively post.

(5)カメラ248は、取得した画像を用いて通行人P2の評価を得るものを説明したが、取得した画像から通行人P2の属性を取得し、属性に応じて表示装置204に表示させるコンテンツを変えるようにしてもよい。例えば、画像に関するタグと、通行人P2の属性とが一致又は類似するコンテンツを、表示装置204に表示させるようにしてもよい。そのようにすることで、より通行人P2が興味を持つコンテンツを表示させることができる。 (5) The camera 248 has described the one that obtains the evaluation of the passerby P2 by using the acquired image, but the content that acquires the attribute of the passerby P2 from the acquired image and displays it on the display device 204 according to the attribute. May be changed. For example, content in which the tag related to the image and the attribute of the passerby P2 match or are similar may be displayed on the display device 204. By doing so, it is possible to display the content that the passerby P2 is more interested in.

(6)特定空間209を、レストランの店内を例に説明したが、種々の場所で実現できる。例えば、衣類等の販売店であれば、販売している衣類を試着している画像とコメントとを含むコンテンツを生成して表示させてもよい。また、例えば、美容院等であれば、カット等をした後の髪型とコメントとを含むコンテンツを生成して表示させてもよい。 (6) Although the specific space 209 has been described by taking the inside of a restaurant as an example, it can be realized in various places. For example, a store selling clothing or the like may generate and display content including an image of trying on the clothing being sold and a comment. Further, for example, in the case of a beauty salon or the like, content including a hairstyle and a comment after cutting or the like may be generated and displayed.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments. Moreover, the effects described in the embodiments are merely a list of the most preferable effects arising from the present invention, and the effects according to the present invention are not limited to those described in the embodiments. The above-described embodiment and the modified form described later can be used in combination as appropriate, but detailed description thereof will be omitted.

(変形形態)
(1)各実施形態では、表示装置は、通信ネットワークを介して接続されているものとして説明したが、これに限定されない。例えば、コンテンツ処理サーバと、ディスプレイとが一体になったコンテンツ出力装置であってもよい。
(2)各実施形態では、表示装置が、デジタルサイネージのようなものであって、特定空間の近傍に設けられたものを例に説明したが、これに限定されない。例えば、表示装置は、パーソナルコンピュータ(PC)やタブレット等であってもよい。
(3)各実施形態では、コンテンツの表示期限について、特に説明をしなかったが、コンテンツ生成日時を有し、古いコンテンツは表示対象にしないようにしてもよい。
(Transformed form)
(1) In each embodiment, the display device has been described as being connected via a communication network, but the present invention is not limited thereto. For example, it may be a content output device in which a content processing server and a display are integrated.
(2) In each embodiment, a display device such as a digital signage provided in the vicinity of a specific space has been described as an example, but the present invention is not limited thereto. For example, the display device may be a personal computer (PC), a tablet, or the like.
(3) In each embodiment, the display deadline of the content is not particularly described, but the content generation date and time may be set and the old content may not be displayed.

1,201 コンテンツ処理サーバ
4,204 表示装置
5 カメラ
9,209 特定空間
10,210 制御部
11,211 画像取得部
13,213 画像判別部
16 地図生成部
17,217 コンテンツ生成部
18 コンテンツ送信部
30,230 記憶部
31a,231a コンテンツ処理プログラム
32 地図記憶部
100,200 コンテンツ出力システム
207 携帯端末
212 コメント受付部
214 タグ付与部
215 順位付与部
220 評価受付部
234 コンテンツ記憶部
246 表示部
248 カメラ
B 基地局
P1 ユーザ
P2 通行人
1,201 Content processing server 4,204 Display device 5 Camera 9,209 Specific space 10,210 Control unit 11,211 Image acquisition unit 13,213 Image discrimination unit 16 Map generation unit 17,217 Content generation unit 18 Content transmission unit 30 , 230 Storage unit 31a, 231a Content processing program 32 Map storage unit 100,200 Content output system 207 Mobile terminal 212 Comment reception unit 214 Tagging unit 215 Ranking unit 220 Evaluation reception unit 234 Content storage unit 246 Display unit 248 Camera B base Station P1 User P2 Passerby

Claims (13)

視野内を撮影する撮像手段と、前記撮像手段により撮影された画像を送信する送信手段と、を有し、異なる位置を撮影する複数の撮影装置と、
前記複数の撮影装置の各々により撮影された前記画像を各々含む複数のコンテンツを受信し、コンテンツを出力するコンテンツ出力装置と、
を備えたコンテンツ出力システムであって、
前記コンテンツ出力装置は、
前記複数の撮影装置の各々により撮影された複数の前記画像に対して画像認識処理を行って各画像における混雑度合いを判別し、前記混雑度合いが他よりも高い前記画像を、出力するコンテンツとして特定する画像判別手段と、
前記画像判別手段により特定された前記コンテンツを出力するコンテンツ出力手段と、
を備えること、
を特徴とするコンテンツ出力システム。
A plurality of photographing devices having an imaging means for photographing the field of view and a transmitting means for transmitting an image captured by the imaging means, and photographing different positions .
A content output device that receives a plurality of contents including the images taken by each of the plurality of photographing devices and outputs the contents, and a content output device.
It is a content output system equipped with
The content output device is
Image recognition processing is performed on a plurality of the images taken by each of the plurality of photographing devices to determine the degree of congestion in each image, and the image having a higher degree of congestion than the others is specified as the content to be output. Image discrimination means and
A content output means for outputting the content specified by the image discrimination means, and a content output means for outputting the content.
To prepare
A content output system featuring.
請求項1に記載のコンテンツ出力システムにおいて、In the content output system according to claim 1,
前記コンテンツ出力装置の前記画像判別手段は、前記複数の撮影装置の各々により撮影された複数の前記画像に対して画像認識処理を行って各画像における混雑度合いを判別し、前記混雑度合いが閾値以上である画像を、出力する前記コンテンツとして特定すること、The image discrimination means of the content output device performs image recognition processing on a plurality of the images taken by each of the plurality of photographing devices to determine the degree of congestion in each image, and the degree of congestion is equal to or higher than a threshold value. To specify the image that is to be output as the content to be output,
を特徴とするコンテンツ出力システム。A content output system featuring.
請求項1又は請求項2に記載のコンテンツ出力システムにおいて、In the content output system according to claim 1 or 2.
前記コンテンツ出力装置の前記コンテンツ出力手段は、前記画像判別手段が特定した前記コンテンツが複数ある場合に、複数の前記コンテンツを時間の経過と共に切り替えて出力すること、When there are a plurality of the contents specified by the image discriminating means, the content output means of the content output device switches and outputs the plurality of the contents with the passage of time.
を特徴とするコンテンツ出力システム。A content output system featuring.
請求項1に記載のコンテンツ出力システムにおいて、In the content output system according to claim 1,
前記コンテンツ出力装置の前記画像判別手段は、前記複数の撮影装置の各々により撮影された複数の前記画像に対して画像認識処理を行って各画像における混雑度合いを判別し、各画像のうち前記混雑度合いが最も高い画像を、出力する前記コンテンツとして特定すること、The image discriminating means of the content output device performs image recognition processing on a plurality of the images captured by each of the plurality of photographing devices to determine the degree of congestion in each image, and among the images, the congestion. Identifying the image with the highest degree as the content to be output,
を特徴とするコンテンツ出力システム。A content output system featuring.
請求項1から請求項4までのいずれかに記載のコンテンツ出力システムにおいて、
前記撮影装置は、音声を含む動画像を、前記画像として取得し、
前記コンテンツ出力装置の前記画像判別手段は、前記画像に対してさらに音声認識処理を行って各画像の混雑度合いを判別し、出力するコンテンツを特定すること、
を特徴とするコンテンツ出力システム。
In the content output system according to any one of claims 1 to 4 .
The photographing device acquires a moving image including sound as the image, and obtains the moving image.
The image discriminating means of the content output device further performs voice recognition processing on the image to discriminate the degree of congestion of each image, and specifies the content to be output.
A content output system featuring.
請求項1から請求項5までのいずれかに記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して前記画像認識処理を行って、顔画像を含むか否かを判別し、
前記コンテンツ出力装置は、前記画像に顔画像を含むと判別した場合には、前記顔画像の領域に対して画像処理を行って、画像処理後の画像を含む前記コンテンツを生成するコンテンツ加工手段を備えること、
を特徴とするコンテンツ出力システム。
In the content output system according to any one of claims 1 to 5 .
The image determination means of the content output device performs the image recognition process on the image to determine whether or not the image includes a face image.
When the content output device determines that the image includes a face image, the content processing means performs image processing on the area of the face image to generate the content including the image after the image processing. To prepare,
A content output system featuring.
請求項1から請求項6までのいずれかに記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置の前記コンテンツ出力手段は、コンテンツを表示するコンテンツ表示装置に対して、前記コンテンツを出力すること、
を特徴とするコンテンツ出力システム。
In the content output system according to any one of claims 1 to 6 .
The content output means of the content output device outputs the content to a content display device that displays the content.
A content output system featuring.
請求項7に記載のコンテンツ出力システムにおいて、
前記複数の撮影装置の各々は、特定の空間に設けられ、
前記コンテンツ表示装置は、前記特定の空間に関連した場所に設けられ、
前記画像には、撮影位置が対応付けられており、
前記コンテンツ出力装置は、前記撮影位置を含む地図と、前記画像とを含む前記コンテンツを生成するコンテンツ生成手段を備えること、
を特徴とするコンテンツ出力システム。
In the content output system according to claim 7 ,
Each of the plurality of photographing devices is provided in a specific space.
The content display device is provided at a location related to the specific space.
The shooting position is associated with the image, and the image is associated with the shooting position.
The content output device includes a content generating means for generating the content including the map including the shooting position and the image.
A content output system featuring.
請求項1から請求項8までのいずれかに記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置は、前記画像に関するコメントを受け付けるコメント受付手段を備え、
前記コンテンツ出力装置は、前記コメント受付手段が受け付けたコメントを前記コンテンツに付加するコメント付加手段を備えること、
を特徴とするコンテンツ出力システム。
In the content output system according to any one of claims 1 to 8 .
The content output device includes a comment receiving means for receiving comments related to the image.
The content output device includes a comment adding means for adding a comment received by the comment receiving means to the content.
A content output system featuring.
請求項1から請求項9までのいずれかに記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置は、
前記画像に関するタグを付与するタグ付与手段と、
前記タグ付与手段により付与された前記タグに基づいて、前記画像に対して優先順位を付与する順位付与手段と、
を備え、
前記コンテンツ出力装置の前記コンテンツ出力手段は、さらに、前記順位付与手段により付与された優先順位に基づいて、前記コンテンツを出力すること、
を特徴とするコンテンツ出力システム。
In the content output system according to any one of claims 1 to 9 .
The content output device is
A tagging means for tagging the image and
A ranking-giving means for giving priority to the image based on the tag given by the tag-giving means, and
With
The content output means of the content output device further outputs the content based on the priority given by the ranking means.
A content output system featuring.
請求項10に記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置は、前記コンテンツ出力装置に表示された前記コンテンツに対する評価を受け付ける評価受付手段を備え、
前記コンテンツ出力装置の前記順位付与手段は、前記評価受付手段が受け付けた評価に基づいて、前記画像に対して優先順位を付与すること、
を特徴とするコンテンツ出力システム。
In the content output system according to claim 10 ,
The content output device includes an evaluation receiving means for receiving an evaluation of the content displayed on the content output device.
The ranking-giving means of the content output device gives a priority to the image based on the evaluation received by the evaluation receiving means.
A content output system featuring.
視野内を撮影する撮像手段と、
前記撮像手段により撮影された画像を送信する送信手段と、
を有し、異なる位置を撮影する複数の撮影装置に対して通信可能に接続されたコンテンツ出力装置であって、
前記複数の撮影装置の各々により撮影された前記画像に対して画像認識処理を行って各画像における混雑度合いを判別し、前記混雑度合いが他よりも高い前記画像を、出力するコンテンツとして特定する画像判別手段と、
前記画像判別手段により特定された前記コンテンツを出力するコンテンツ出力手段と、
を備えること、
を特徴とするコンテンツ出力装置。
An imaging means that captures the inside of the field of view,
A transmission means for transmitting an image captured by the imaging means, and a transmission means.
It is a content output device that is connected so as to be able to communicate with a plurality of shooting devices that shoot different positions .
An image that performs image recognition processing on the image taken by each of the plurality of photographing devices to determine the degree of congestion in each image, and specifies the image having a higher degree of congestion than the others as the content to be output. Discrimination means and
A content output means for outputting the content specified by the image discrimination means, and a content output means for outputting the content.
To prepare
A content output device characterized by.
請求項1から請求項11までのいずれかに記載のコンテンツ出力システムの前記コンテンツ出力装置としてコンピュータを機能させるためのプログラム。 A program for operating a computer as the content output device of the content output system according to any one of claims 1 to 11 .
JP2018063592A 2018-03-29 2018-03-29 Content output system, content output device and program Active JP7102856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018063592A JP7102856B2 (en) 2018-03-29 2018-03-29 Content output system, content output device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018063592A JP7102856B2 (en) 2018-03-29 2018-03-29 Content output system, content output device and program

Publications (2)

Publication Number Publication Date
JP2019176365A JP2019176365A (en) 2019-10-10
JP7102856B2 true JP7102856B2 (en) 2022-07-20

Family

ID=68169806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018063592A Active JP7102856B2 (en) 2018-03-29 2018-03-29 Content output system, content output device and program

Country Status (1)

Country Link
JP (1) JP7102856B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230139260A1 (en) * 2020-03-10 2023-05-04 Nec Corporation Photographing control apparatus, system, method, and non-transitory computer-readable medium storing program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004529356A (en) 2001-05-14 2004-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Exhibition event attendee support method and apparatus using image-based crowd analysis
JP2005310017A (en) 2004-04-26 2005-11-04 Hitachi Ltd Display system and distribution method
JP2006079457A (en) 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd Electronic album display system, electronic album display method, electronic album display program, image classification device, image classification method and image classification program
JP2010268186A (en) 2009-05-14 2010-11-25 Panasonic Corp Monitoring image display device
JP2015064513A (en) 2013-09-26 2015-04-09 カシオ計算機株式会社 Display device, content display method, and program
JP2017098879A (en) 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004529356A (en) 2001-05-14 2004-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Exhibition event attendee support method and apparatus using image-based crowd analysis
JP2005310017A (en) 2004-04-26 2005-11-04 Hitachi Ltd Display system and distribution method
JP2006079457A (en) 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd Electronic album display system, electronic album display method, electronic album display program, image classification device, image classification method and image classification program
JP2010268186A (en) 2009-05-14 2010-11-25 Panasonic Corp Monitoring image display device
JP2015064513A (en) 2013-09-26 2015-04-09 カシオ計算機株式会社 Display device, content display method, and program
JP2017098879A (en) 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method

Also Published As

Publication number Publication date
JP2019176365A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
US8577087B2 (en) Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US9530144B2 (en) Content output device, content output method, content output program, and recording medium having content output program recorded thereon
CN109643412A (en) Email is personalized
KR101643915B1 (en) Construction system for big data reflect regional characteristics tailored ads
JP6148948B2 (en) Information processing system, information processing method, and information processing program
JP2004227158A (en) Information providing device and information providing method
JP6120467B1 (en) Server device, terminal device, information processing method, and program
US20220346683A1 (en) Information processing system and information processing method
US20140062837A1 (en) Information processing apparatus and method for sending display data therefrom
US20160162593A1 (en) Information communication method and information communication apparatus
CN111699478A (en) Image retrieval device, image retrieval method, electronic apparatus, and control method thereof
US12033190B2 (en) System and method for content recognition and data categorization
JP7102856B2 (en) Content output system, content output device and program
US20230360098A1 (en) Methods and systems for providing information about a location with image analysis
KR102166044B1 (en) System for providing kids cafe management service using freepass membership
CN110049094A (en) The method and offline exhibition terminal of information push
JP2017228278A (en) Server device, terminal device, information processing method, and program
CN108573056B (en) Content data processing method and device, electronic equipment and storage medium
WO2021103727A1 (en) Data processing method, device, and storage medium
US11659273B2 (en) Information processing apparatus, information processing method, and non-transitory storage medium
KR20200132201A (en) Method and system for inducing to participate in the event
US11828616B2 (en) Search system, search method, and recording medium for recording search program
JP7210340B2 (en) Attention Level Utilization Apparatus, Attention Level Utilization Method, and Attention Level Utilization Program
KR20150081395A (en) A method for providing effective ad
KR20230075866A (en) CCTV footage checking system inside the store

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R150 Certificate of patent or registration of utility model

Ref document number: 7102856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150