JP2019176365A - Content output system, content output apparatus, and program - Google Patents

Content output system, content output apparatus, and program Download PDF

Info

Publication number
JP2019176365A
JP2019176365A JP2018063592A JP2018063592A JP2019176365A JP 2019176365 A JP2019176365 A JP 2019176365A JP 2018063592 A JP2018063592 A JP 2018063592A JP 2018063592 A JP2018063592 A JP 2018063592A JP 2019176365 A JP2019176365 A JP 2019176365A
Authority
JP
Japan
Prior art keywords
content
image
content output
output system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018063592A
Other languages
Japanese (ja)
Other versions
JP7102856B2 (en
Inventor
錬 松山
Ren Matsuyama
錬 松山
拓也 生駒
Takuya Ikoma
拓也 生駒
伊藤 直之
Naoyuki Ito
直之 伊藤
聡 田端
Satoshi Tabata
聡 田端
益丈 小沢
Masuhiro Ozawa
益丈 小沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2018063592A priority Critical patent/JP7102856B2/en
Publication of JP2019176365A publication Critical patent/JP2019176365A/en
Application granted granted Critical
Publication of JP7102856B2 publication Critical patent/JP7102856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a content output system, a content output apparatus, and a program, capable of providing useful information to a user.SOLUTION: A content output system 100 includes: a camera 5 having imaging capturing means for capturing an image within a field of view and transmission means for transmitting an image captured by the imaging capturing means; and a content processing server 1 for receiving and outputting content including the image captured by the camera 5. The content processing server 1 includes: an image discriminating unit 13 for analyzing the image captured by the camera 5 and discriminating content to be output according to an analysis result; and a content transmission unit 18 for outputting the content discriminated by the image discriminating unit 13.SELECTED DRAWING: Figure 2

Description

本発明は、コンテンツ出力システム、コンテンツ出力装置及びプログラムに関する。   The present invention relates to a content output system, a content output device, and a program.

昨今、例えば、街中や駅構内における広告では、デジタルサイネージ等によるデジタル画像や映像を用いたものが主流になってきている。しかし、デジタルサイネージに表示する広告は、例えば、テレビのCM等と変わらない内容であったりすることが多く、通行人の関心を惹きつける要素が少なかった。
他方、SNSサービスに投稿された写真を印刷し、印刷された写真をサイネージに表示する技術が開示されている(例えば、特許文献1)。
In recent years, for example, in the advertisements in the streets and stations, those using digital images and videos by digital signage or the like have become mainstream. However, advertisements displayed on digital signage often have the same content as TV commercials, for example, and there are few elements that attract the attention of passersby.
On the other hand, a technique for printing a photograph posted to the SNS service and displaying the printed photograph on a signage is disclosed (for example, Patent Document 1).

特開2017−208006号公報JP 2017-208006 A

特許文献1に記載のものは、イベント会場や店舗等に設置したサイネージ装置に、SNSサービスに投稿され、それが印刷された写真を表示することで、来場者や来店者にプリンタの設置を知らせるためのものである。
このように、イベント会場や店舗等において、来場者や来店者等のユーザに有用な情報を提供すれば、ユーザの関心を惹きつけるものになり得る。
The one described in Patent Document 1 notifies a visitor or a visitor to the installation of a printer by displaying a photograph posted on an SNS service and printed on a signage device installed at an event venue or a store. Is for.
Thus, providing useful information to users such as visitors and visitors at event venues and stores can attract the interest of users.

そこで、本発明は、ユーザに有用な情報を提供し得るコンテンツ出力システム、コンテンツ出力装置及びプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide a content output system, a content output device, and a program that can provide useful information to a user.

本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、視野内を撮影する撮像手段と、前記撮像手段により撮影された画像を送信する送信手段と、を有する撮影装置と、前記撮影装置により撮影された前記画像を含むコンテンツを受信して出力するコンテンツ出力装置と、を備えたコンテンツ出力システムであって、前記コンテンツ出力装置は、前記撮影装置により撮影された前記画像を解析して、解析結果に応じて出力するコンテンツを判別する画像判別手段と、前記画像判別手段により判別された前記コンテンツを出力するコンテンツ出力手段と、を備えること、を特徴とするコンテンツ出力システムである。
第2の発明は、第1の発明のコンテンツ出力システムにおいて、前記撮影装置は、音声を含む動画像を、前記画像として取得し、前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して画像認識処理及び音声認識処理のうち少なくとも一方を行って、混雑度合いに応じて出力するコンテンツを判別すること、を特徴とするコンテンツ出力システムである。
第3の発明は、第1の発明又は第2の発明のコンテンツ出力システムにおいて、前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して画像認識処理を行って、顔画像を含むか否かを判別し、前記コンテンツ出力装置は、前記画像に顔画像を含むと判別した場合には、前記顔画像の領域に対して画像処理を行って、画像処理後の画像を含む前記コンテンツを生成するコンテンツ加工手段を備えること、を特徴とするコンテンツ出力システムである。
第4の発明は、第1の発明から第3の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置の前記画像判別手段は、異なる位置を撮影する複数の前記撮影装置により撮影された画像を各々含む複数のコンテンツから1以上の前記コンテンツを判別すること、を特徴とするコンテンツ出力システムである。
第5の発明は、第1の発明から第4の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置は、前記画像に関するタグを付与するタグ付与手段と、前記タグ付与手段により付与された前記タグに基づいて、前記画像に対して優先順位を付与する順位付与手段と、を備え、前記コンテンツ出力装置の前記コンテンツ出力手段は、さらに、前記順位付与手段により付与された優先順位に基づいて、前記コンテンツを出力すること、を特徴とするコンテンツ出力システムである。
第6の発明は、第5の発明のコンテンツ出力システムにおいて、前記コンテンツ出力装置は、前記コンテンツ出力装置に表示された前記コンテンツに対する評価を受け付ける評価受付手段を備え、前記コンテンツ出力装置の前記順位付与手段は、前記評価受付手段が受け付けた評価に基づいて、前記画像に対して優先順位を付与すること、を特徴とするコンテンツ出力システムである。
第7の発明は、第1の発明から第6の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置は、前記画像に関するコメントを受け付けるコメント受付手段を備え、前記コンテンツ出力装置は、前記コメント受付手段が受け付けたコメントを前記コンテンツに付加するコメント付加手段を備えること、を特徴とするコンテンツ出力システムである。
第8の発明は、第1の発明から第7の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置の前記コンテンツ出力手段は、コンテンツを表示するコンテンツ表示装置に対して、前記コンテンツを出力すること、を特徴とするコンテンツ出力システムである。
第9の発明は、第8の発明のコンテンツ出力システムにおいて、前記撮影装置は、特定の空間に設けられ、前記コンテンツ表示装置は、前記特定の空間に関連した場所に設けられ、前記画像には、撮影位置が対応付けられており、前記コンテンツ出力装置は、前記撮影位置を含む地図と、前記画像とを含む前記コンテンツを生成するコンテンツ生成手段を備えること、を特徴とするコンテンツ出力システムである。
第10の発明は、視野内を撮影する撮像手段と、前記撮像手段により撮影された画像を送信する送信手段と、を有する撮影装置に対して通信可能に接続されたコンテンツ出力装置であって、前記撮影装置により撮影された前記画像を解析して、解析結果に応じて出力するコンテンツを判別する画像判別手段と、前記画像判別手段により判別されたコンテンツを出力するコンテンツ出力手段と、を備えること、を特徴とするコンテンツ出力装置である。
第11の発明は、第1の発明から第9の発明までのいずれかのコンテンツ出力システムの前記コンテンツ出力装置としてコンピュータを機能させるためのプログラムである。
The present invention solves the above problems by the following means.
1st invention receives the content containing the said image image | photographed by the imaging device which has the imaging means which image | photographs the inside of a visual field, and the transmission means which transmits the image image | photographed by the said imaging device, and the said imaging device. The content output system comprises: a content output device that outputs the content, wherein the content output device analyzes the image photographed by the photographing device and determines the content to be outputted according to the analysis result A content output system comprising: an image determination unit; and a content output unit that outputs the content determined by the image determination unit.
In a content output system according to a second aspect of the present invention, in the content output system of the first aspect, the photographing device acquires a moving image including sound as the image, and the image determination means of the content output device A content output system characterized in that at least one of image recognition processing and voice recognition processing is performed to determine content to be output according to the degree of congestion.
According to a third aspect of the present invention, in the content output system of the first or second aspect, the image discrimination means of the content output device performs an image recognition process on the image and includes a face image. When the content output apparatus determines that the image includes a face image, the content output device performs image processing on the face image region and generates the content including the image processed image. It is a content output system characterized by including the content processing means to perform.
According to a fourth aspect of the present invention, in the content output system according to any one of the first to third aspects, the image determination unit of the content output device is photographed by the plurality of photographing devices that photograph different positions. A content output system characterized by discriminating one or more contents from a plurality of contents each including an image.
According to a fifth aspect of the present invention, in the content output system according to any one of the first to fourth aspects, the content output device is provided by a tag attaching unit that attaches a tag related to the image, and the tag attaching unit. Ranking granting means for giving priority to the image based on the tag, and the content output means of the content output device is further based on the priority given by the ranking granting means. The content output system is characterized in that the content is output.
A sixth invention is the content output system of the fifth invention, wherein the content output device comprises an evaluation receiving means for receiving an evaluation on the content displayed on the content output device, and the ranking of the content output device The means is a content output system characterized in that a priority is assigned to the image based on the evaluation received by the evaluation receiving means.
According to a seventh aspect of the present invention, in the content output system according to any one of the first to sixth aspects of the invention, the content output device includes comment accepting means for accepting a comment regarding the image. A content output system comprising comment adding means for adding a comment received by a comment receiving means to the content.
An eighth invention is the content output system according to any one of the first to seventh inventions, wherein the content output means of the content output device outputs the content to a content display device that displays the content. The content output system is characterized by outputting.
A ninth invention is the content output system of the eighth invention, wherein the photographing device is provided in a specific space, the content display device is provided in a place related to the specific space, The content output system is associated with a shooting position, and the content output device includes content generation means for generating the content including a map including the shooting position and the image. .
A tenth aspect of the present invention is a content output device that is communicably connected to an imaging device that includes an imaging unit that captures an image within a field of view and a transmission unit that transmits an image captured by the imaging unit. An image discriminating unit for analyzing the image photographed by the photographing device and discriminating content to be output according to the analysis result; and a content output unit for outputting the content discriminated by the image discriminating unit. The content output apparatus characterized by the above.
An eleventh invention is a program for causing a computer to function as the content output device of any of the content output systems from the first invention to the ninth invention.

本発明によれば、ユーザに有用な情報を提供し得るコンテンツ出力システム、コンテンツ出力装置及びプログラムを提供することができる。   According to the present invention, it is possible to provide a content output system, a content output device, and a program that can provide useful information to a user.

第1実施形態に係るコンテンツ出力システムの全体概要図である。1 is an overall schematic diagram of a content output system according to a first embodiment. 第1実施形態に係るコンテンツ処理サーバの機能ブロック図である。It is a functional block diagram of the content processing server which concerns on 1st Embodiment. 第1実施形態に係るコンテンツ処理サーバのコンテンツ表示処理を示すフローチャートである。It is a flowchart which shows the content display process of the content processing server which concerns on 1st Embodiment. 第1実施形態に係る表示装置での表示例を示す図である。It is a figure which shows the example of a display with the display apparatus which concerns on 1st Embodiment. 第2実施形態に係るコンテンツ出力システムの全体概要図である。It is a whole schematic diagram of the content output system concerning a 2nd embodiment. 第2実施形態に係るコンテンツ処理サーバ及び表示装置の機能ブロック図である。It is a functional block diagram of a content processing server and a display device according to the second embodiment. 第2実施形態に係るコンテンツ処理サーバのコンテンツ生成処理を示すフローチャートである。It is a flowchart which shows the content production | generation process of the content processing server which concerns on 2nd Embodiment. 第2実施形態に係るコンテンツ処理サーバのコンテンツ表示処理を示すフローチャートである。It is a flowchart which shows the content display process of the content processing server which concerns on 2nd Embodiment. 第2実施形態に係る表示装置での表示例を示す図である。It is a figure which shows the example of a display with the display apparatus which concerns on 2nd Embodiment. 第2実施形態に係る表示装置のコンテンツ評価受付処理を示すフローチャートである。It is a flowchart which shows the content evaluation reception process of the display apparatus which concerns on 2nd Embodiment.

以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(第1実施形態)
<コンテンツ出力システム100>
図1は、第1実施形態に係るコンテンツ出力システム100の全体概要図である。
図2は、第1実施形態に係るコンテンツ処理サーバ1の機能ブロック図である。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
(First embodiment)
<Content Output System 100>
FIG. 1 is an overall schematic diagram of a content output system 100 according to the first embodiment.
FIG. 2 is a functional block diagram of the content processing server 1 according to the first embodiment.

図1に示すコンテンツ出力システム100は、例えば、大勢の人が集うような場所であるショッピングモールや、イベント会場の入口等、その場所に関連する位置にあり、人が通る際に目に付く場所に、表示装置4(コンテンツ表示装置、コンテンツ出力装置)を設置する。そして、コンテンツ出力システム100は、ショッピングモールやイベント会場等の内部の様子を、カメラ5を使用して撮影し、撮影した画像を含むコンテンツを表示装置4に表示させるシステムである。
以降の説明において、例えば、ショッピングモールや、イベント会場といった、人が集まる場所であって、このコンテンツ出力システム100の利用を想定する場所を、特定空間9という。
図1に示す例では、特定空間9は、複数の展示スペースを含むイベント会場である。
The content output system 100 shown in FIG. 1 is a place that is noticed when a person passes, such as a shopping mall where many people gather, an entrance of an event venue, or the like. The display device 4 (content display device, content output device) is installed. The content output system 100 is a system that captures an internal state of a shopping mall, an event venue, or the like using the camera 5 and displays content including the captured image on the display device 4.
In the following description, for example, a place where people gather, such as a shopping mall or an event venue, where the use of the content output system 100 is assumed is referred to as a specific space 9.
In the example shown in FIG. 1, the specific space 9 is an event venue including a plurality of exhibition spaces.

図1及び図2に示すコンテンツ出力システム100は、コンテンツ処理サーバ1(コンテンツ出力装置)と、1台の表示装置4と、複数台のカメラ5(撮影装置)とを備える。コンテンツ処理サーバ1と、表示装置4と、カメラ5とは、通信ネットワークNを介して通信可能に接続されている。通信ネットワークNは、例えば、インターネット回線等である。また、通信ネットワークNは、例えば、Bluetooth(登録商標)規格に基づく短距離無線通信等を用いるものであってもよい。
なお、表示装置4は、1台に限らず、複数台設置してもよいし、カメラ5は、1台以上あればよく、いずれも数に制限はない。
A content output system 100 illustrated in FIGS. 1 and 2 includes a content processing server 1 (content output device), one display device 4, and a plurality of cameras 5 (photographing devices). The content processing server 1, the display device 4, and the camera 5 are connected to be communicable via a communication network N. The communication network N is, for example, an internet line. Further, the communication network N may use, for example, short-range wireless communication based on the Bluetooth (registered trademark) standard.
Note that the number of display devices 4 is not limited to one, and a plurality of display devices 4 may be installed, and the number of cameras 5 may be one or more, and the number is not limited.

<コンテンツ処理サーバ1>
コンテンツ処理サーバ1は、表示装置4に表示させるコンテンツに関する処理を行う。コンテンツ処理サーバ1は、カメラ5から取得した画像を判別し、判別結果に応じて、表示装置4に出力するコンテンツを生成して、表示装置4に送信する。
コンテンツ処理サーバ1は、例えば、サーバである。コンテンツ処理サーバ1は、その他、パーソナルコンピュータ(PC)等であってもよい。
コンテンツ処理サーバ1は、制御部10と、記憶部30と、通信インタフェース部39とを備える。
<Content processing server 1>
The content processing server 1 performs processing related to content to be displayed on the display device 4. The content processing server 1 determines an image acquired from the camera 5, generates content to be output to the display device 4 according to the determination result, and transmits the content to the display device 4.
The content processing server 1 is, for example, a server. In addition, the content processing server 1 may be a personal computer (PC) or the like.
The content processing server 1 includes a control unit 10, a storage unit 30, and a communication interface unit 39.

制御部10は、コンテンツ処理サーバ1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部30に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、画像取得部11と、画像判別部13(画像判別手段)と、地図生成部16(地図生成手段)と、コンテンツ生成部17(コンテンツ加工手段、コンテンツ生成手段)と、コンテンツ送信部18(コンテンツ出力手段)とを備える。
The control unit 10 is a central processing unit (CPU) that controls the entire content processing server 1. The control unit 10 executes various functions in cooperation with the hardware described above by appropriately reading and executing an operating system (OS) and application programs stored in the storage unit 30.
The control unit 10 includes an image acquisition unit 11, an image determination unit 13 (image determination unit), a map generation unit 16 (map generation unit), a content generation unit 17 (content processing unit, content generation unit), and content transmission. Unit 18 (content output means).

画像取得部11は、特定空間9を撮影する複数台のカメラ5により撮影された画像を、カメラ5から取得する。ここで、画像取得部11は、カメラ5から画像(コンテンツ)を直接受信してもよい。また、画像取得部11は、カメラ5により撮影された画像を含むコンテンツを、他の装置(図示せず)から受信してもよい。
画像判別部13は、画像取得部11によって取得した画像を解析して、解析結果に応じて出力するコンテンツを判別する。例えば、画像判別部13は、画像取得部11によって取得した画像に対して、画像認識処理を行って、人の混雑度合いに応じて出力するコンテンツを判別する。例えば、画像判別部13は、画像の混雑度合いが閾値以上である場合に、その画像を含むコンテンツを出力するコンテンツとして判別しもよい。また、画像判別部13は、混雑度合いが閾値以上である画像が複数ある場合には、複数の画像の各々を含む複数のコンテンツを、出力するコンテンツとして判別し、時間の経過と共に切り替えて表示させるようにしてもよい。
The image acquisition unit 11 acquires images captured by a plurality of cameras 5 that capture the specific space 9 from the cameras 5. Here, the image acquisition unit 11 may directly receive an image (content) from the camera 5. The image acquisition unit 11 may receive content including an image captured by the camera 5 from another device (not shown).
The image determination unit 13 analyzes the image acquired by the image acquisition unit 11 and determines the content to be output according to the analysis result. For example, the image determination unit 13 performs image recognition processing on the image acquired by the image acquisition unit 11 and determines the content to be output according to the degree of congestion of the person. For example, when the degree of congestion of an image is greater than or equal to a threshold value, the image determination unit 13 may determine that the content including the image is output content. In addition, when there are a plurality of images whose degree of congestion is equal to or greater than the threshold value, the image determination unit 13 determines a plurality of contents including each of the plurality of images as output contents, and switches and displays them as time passes. You may do it.

画像認識処理の一例として、画像判別部13は、公知の手法により、画像に含まれる顔画像や、人を検出して、その数によって混雑度合いを判別してもよい。また、画像判別部13は、単に通りすがりの人を除外するために、検出した人等が立ち止まっている場合や、単位時間に対する移動距離が短い場合、つまり、人の動くスピードがゆっくりである場合に、その数をカウントして混雑度合いを判別してもよい。   As an example of the image recognition processing, the image determination unit 13 may detect a face image or a person included in the image by a known method, and determine the degree of congestion based on the number thereof. Further, the image discriminating unit 13 simply excludes a passing person when the detected person is stopped or when the moving distance per unit time is short, that is, when the moving speed of the person is slow. The number may be counted to determine the degree of congestion.

ここで、人検出の手法としては、例えば、HOG特徴量を用いるものがある。HOG特徴量を用いた人検出に関しては、「N.Dalal and B.Triggs.Histograms of Oriented Gradients for Human Detection.In CVPR,pages886−893,2005」に記載されている。   Here, as a human detection method, for example, there is a method using an HOG feature amount. Human detection using HOG features is described in “N. Dalal and B. Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886-893, 2005”.

また、顔検出の手法としては、例えば、Haar−like特徴を用いるものがある。Haar−like特徴を用いた顔検出に関しては、「P.Viola and M.J.Jones:“Rapid Object Detection Using a Boosted Cascade of Simple Features”,Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,pp.511−518,(2001).」に記載されている。   As a face detection method, for example, there is a method using a Haar-like feature. For face detection using the Haar-like feature, see “P. Viola and MJ Jones:“ Rapid Object Detection Using the Coordinated the Coordinates of the Future ”, Proceedings of the Effort. , Pp. 511-518, (2001).

地図生成部16は、コンテンツに含む画像を取得したカメラ5の撮影位置を含む、特定空間9の地図を生成する。具体的には、地図生成部16は、例えば、地図記憶部32に記憶された特定空間9の地図に、カメラ位置記憶部33に記憶された該当のカメラ5の位置を反映させる。
生成した地図は、表示装置4の設置位置と、特定空間9の位置とを考慮したものが望ましい。通行人は、表示装置4に対面する位置から表示装置4を見る。よって、地図生成部16は、表示装置4の上側が特定空間9の奥方向になり、表示装置4の下側が特定空間9の手前方向になるように地図を生成するのが望ましい。
The map generation unit 16 generates a map of the specific space 9 including the shooting position of the camera 5 that acquired the image included in the content. Specifically, the map generation unit 16 reflects the position of the corresponding camera 5 stored in the camera position storage unit 33 on the map of the specific space 9 stored in the map storage unit 32, for example.
The generated map is preferably in consideration of the installation position of the display device 4 and the position of the specific space 9. A passerby views the display device 4 from a position facing the display device 4. Therefore, it is desirable that the map generation unit 16 generates the map so that the upper side of the display device 4 is in the back direction of the specific space 9 and the lower side of the display device 4 is in the front direction of the specific space 9.

コンテンツ生成部17は、画像に顔画像を含む場合に、コンテンツの顔画像の領域に対して画像処理による加工を行ってもよい。顔画像の領域に対する画像処理とは、顔や人物を特定できないようにするものであり、例えば、モザイクやぼかしを入れたり、予め用意したキャラクタ等の画像を合成したりする処理である。
そして、コンテンツ生成部17は、コンテンツに対して生成した地図を含んだ新たなコンテンツを生成する。
コンテンツ送信部18は、コンテンツ生成部17により生成されたコンテンツを、表示装置4に対して送信する。
When the image includes a face image, the content generation unit 17 may perform processing by image processing on the face image area of the content. The image processing for the face image area is a process for making it impossible to specify a face or a person, for example, a process of adding mosaic or blurring, or synthesizing an image of a character prepared in advance.
And the content production | generation part 17 produces | generates the new content containing the map produced | generated with respect to the content.
The content transmission unit 18 transmits the content generated by the content generation unit 17 to the display device 4.

記憶部30は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
記憶部30は、プログラム記憶部31と、地図記憶部32と、カメラ位置記憶部33とを備える。
プログラム記憶部31は、各種のプログラムを記憶する記憶領域である。プログラム記憶部31は、コンテンツ処理プログラム31aを記憶している。コンテンツ処理プログラム31aは、コンテンツ処理サーバ1の制御部10が実行する各種機能を行うためのプログラムである。
The storage unit 30 is a storage area such as a hard disk or a semiconductor memory element for storing programs, data, and the like necessary for the control unit 10 to execute various processes.
The storage unit 30 includes a program storage unit 31, a map storage unit 32, and a camera position storage unit 33.
The program storage unit 31 is a storage area for storing various programs. The program storage unit 31 stores a content processing program 31a. The content processing program 31a is a program for performing various functions executed by the control unit 10 of the content processing server 1.

地図記憶部32は、特定空間9の地図を記憶する記憶領域である。
カメラ位置記憶部33は、特定空間9に設置したカメラ5の位置を記憶する記憶領域である。
通信インタフェース部39は、通信ネットワークNを介して表示装置4及びカメラ5との間の通信を行うためのインタフェースである。
The map storage unit 32 is a storage area that stores a map of the specific space 9.
The camera position storage unit 33 is a storage area that stores the position of the camera 5 installed in the specific space 9.
The communication interface unit 39 is an interface for performing communication between the display device 4 and the camera 5 via the communication network N.

ここで、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、コンテンツ処理サーバ1は、制御部10、記憶部30等を備えた情報処理装置であり、コンピュータの概念に含まれる。   Here, the computer refers to an information processing device including a control unit, a storage device, and the like, and the content processing server 1 is an information processing device including the control unit 10, the storage unit 30 and the like, and is included in the concept of a computer. It is.

<表示装置4>
図1に示す表示装置4は、例えば、縦が1.5〜2m程度で、横幅が1〜1.5m程度の液晶ディスプレイ等のモニタ(デジタルサイネージ)を有する装置である。上述したように、表示装置4は、例えば、特定空間9の入口付近に設置する。そして、表示装置4は、コンテンツ処理サーバ1から受信した特定空間9の画像を含むコンテンツを表示する。
<Display device 4>
The display device 4 shown in FIG. 1 is a device having a monitor (digital signage) such as a liquid crystal display having a length of about 1.5 to 2 m and a width of about 1 to 1.5 m. As described above, the display device 4 is installed near the entrance of the specific space 9, for example. The display device 4 displays the content including the image of the specific space 9 received from the content processing server 1.

<カメラ5>
カメラ5は、特定空間9に設置され、特定空間9の内部を撮影する。
カメラ5は、視野内を撮影する撮像手段と、撮像手段により撮影された画像を送信する送信手段とを備える。
カメラ5は、例えば、監視カメラ等であってもよい。また、カメラ5は、動画像を撮影し続けるものであっても、所定の時間間隔で静止画を撮影するものであってもよい。以降の説明において、撮影した画像は、動画像であるものとして説明する。
<Camera 5>
The camera 5 is installed in the specific space 9 and photographs the inside of the specific space 9.
The camera 5 includes an imaging unit that captures an image within the field of view and a transmission unit that transmits an image captured by the imaging unit.
The camera 5 may be a surveillance camera or the like, for example. Further, the camera 5 may continue to capture a moving image or may capture a still image at a predetermined time interval. In the following description, it is assumed that the captured image is a moving image.

<コンテンツ表示処理>
次に、表示装置4にコンテンツを表示させる処理について説明する。
図3は、第1実施形態に係るコンテンツ処理サーバ1のコンテンツ表示処理を示すフローチャートである。
図4は、第1実施形態に係る表示装置4での表示例を示す図である。
<Content display processing>
Next, processing for displaying content on the display device 4 will be described.
FIG. 3 is a flowchart showing content display processing of the content processing server 1 according to the first embodiment.
FIG. 4 is a diagram illustrating a display example on the display device 4 according to the first embodiment.

図3のステップS(以下、単に「S」という。)10において、コンテンツ処理サーバ1の制御部10(画像取得部11)は、各カメラ5によって撮影された画像を、各カメラ5から取得する。画像取得部11は、カメラ5の電源が投入されている間は、常時、カメラ5から画像を取得してもよい。また、画像取得部11は、1分おき等の所定のタイミングで定期的に、カメラ5から画像を取得してもよい。   In step S (hereinafter simply referred to as “S”) 10 in FIG. 3, the control unit 10 (image acquisition unit 11) of the content processing server 1 acquires an image captured by each camera 5 from each camera 5. . The image acquisition unit 11 may always acquire an image from the camera 5 while the camera 5 is powered on. Further, the image acquisition unit 11 may acquire images from the camera 5 periodically at a predetermined timing such as every other minute.

S11において、制御部10(画像判別部13)は、取得した各画像に対して画像認識技術を用いた画像認識処理をすることで、各画像の混雑度合いを判別する。
S12において、制御部10は、判別結果として最も混雑度合いが高い画像を、出力するコンテンツとして特定する。
S13において、制御部10(コンテンツ生成部17)は、特定した画像から顔画像を抽出し、抽出した顔画像に対して加工処理を行う。この処理によって、加工処理後の画像を含むコンテンツは、人がいることは分かるが、人物を特定できないものになる。
In S <b> 11, the control unit 10 (image determination unit 13) determines the degree of congestion of each image by performing image recognition processing using an image recognition technique on each acquired image.
In S12, the control unit 10 specifies an image having the highest degree of congestion as a determination result as content to be output.
In S <b> 13, the control unit 10 (content generation unit 17) extracts a face image from the identified image, and performs a processing process on the extracted face image. By this processing, the content including the processed image can be understood that there is a person, but the person cannot be specified.

S14において、制御部10は、S12で特定した画像を撮影したカメラ5の位置を、カメラ位置記憶部33に基づいて取得する。
S15において、制御部10(地図生成部16)は、特定したカメラ5の位置を含む地図を生成する。制御部10は、地図記憶部32から、特定空間9の地図を抽出し、特定したカメラ5の位置を、抽出した地図に配置した地図を生成する。
In S <b> 14, the control unit 10 acquires the position of the camera 5 that captured the image specified in S <b> 12 based on the camera position storage unit 33.
In S15, the control unit 10 (map generation unit 16) generates a map including the position of the identified camera 5. The control unit 10 extracts a map of the specific space 9 from the map storage unit 32, and generates a map in which the position of the specified camera 5 is arranged on the extracted map.

S16において、制御部10(コンテンツ生成部17)は、生成した地図と、加工処理後の画像とを含むコンテンツを生成する。
S17において、制御部10(コンテンツ送信部18)は、生成したコンテンツを表示装置4に送信する。その後、制御部10は、処理をS10に移し、取得した画像を用いてコンテンツを生成し、表示装置4に送信する処理を繰り返す。この繰り返し処理は、例えば、所定のタイミングで定期的に行う。
In S16, the control unit 10 (content generation unit 17) generates content including the generated map and the processed image.
In S <b> 17, the control unit 10 (content transmission unit 18) transmits the generated content to the display device 4. Thereafter, the control unit 10 moves the process to S10, repeats the process of generating content using the acquired image and transmitting the content to the display device 4. This repetitive process is performed periodically at a predetermined timing, for example.

コンテンツ処理サーバ1の制御部10は、上述した処理を、カメラ5から画像を取得したことに応じて即時に行う。そして、制御部10は、即時処理によって生成されたコンテンツを、表示装置4に送信する。よって、表示装置4に表示されるコンテンツは、ほぼリアルタイムに特定空間9の状況を示す。   The control unit 10 of the content processing server 1 immediately performs the above-described processing in response to acquiring an image from the camera 5. Then, the control unit 10 transmits the content generated by the immediate process to the display device 4. Therefore, the content displayed on the display device 4 shows the state of the specific space 9 almost in real time.

図4は、特定空間9の入口に設置された表示装置4に、コンテンツ40が表示されている例を示す。
コンテンツ40は、大別して画像領域41と、地図領域42とから構成されている。
画像領域41には、最も混雑度合いが高い位置の画像であって、顔画像等に加工処理を施した画像を表示する。この例では、最も混雑度合いが高い位置のカメラ5は、展示スペースAに設置されている。この画像領域41に表示された画像は、展示スペースAの混雑度合いを、ほぼリアルタイムに反映している。
FIG. 4 shows an example in which the content 40 is displayed on the display device 4 installed at the entrance of the specific space 9.
The content 40 is roughly divided into an image area 41 and a map area 42.
In the image area 41, an image at a position where the degree of congestion is the highest, and an image obtained by processing a face image or the like is displayed. In this example, the camera 5 at the position with the highest degree of congestion is installed in the exhibition space A. The image displayed in the image area 41 reflects the degree of congestion of the exhibition space A almost in real time.

地図領域42には、画像領域41を撮影したカメラ5の位置42aを、地図に示した特定空間9の地図を表示する。地図領域42に示す地図は、特定空間9の入口を下側としたものであるため、表示装置4を見た通行人等を、特定空間9の位置42aによって示される展示スペースAに、間違えることなく向かわせることができる。
なお、図4に示すように、画像領域41に表示されている画像の撮影場所である「展示スペースA」を、名称領域43に表示させてもよい。例えば、カメラ位置記憶部33に記憶されたカメラ5の位置に、名称を対応付けて記憶しておけば、コンテンツ処理サーバ1は、名称領域43に名称を配置してコンテンツを生成できるため、コンテンツに、場所の名称を表示できる。
In the map area 42, a map of the specific space 9 in which the position 42a of the camera 5 where the image area 41 is photographed is displayed is displayed. Since the map shown in the map area 42 is such that the entrance of the specific space 9 is on the lower side, passers-by who viewed the display device 4 are mistaken for the exhibition space A indicated by the position 42a of the specific space 9 You can go without.
As shown in FIG. 4, “exhibition space A” that is the shooting location of the image displayed in the image area 41 may be displayed in the name area 43. For example, if the name is associated with the position of the camera 5 stored in the camera position storage unit 33 and stored, the content processing server 1 can generate the content by arranging the name in the name area 43. The name of the place can be displayed.

このように、第1実施形態のコンテンツ出力システム100によれば、以下のような効果がある。
(1)コンテンツ処理サーバ1は、カメラ5が撮影した画像から混雑度合いを判別して、混雑度合いが高い画像を含むコンテンツを、特定空間9の入口に設置された表示装置4に表示させる。よって、入口付近で表示装置4を見た通行人等は、画像によって賑わっている様子を見ることができ、画像の撮影場所の好奇心を掻き立てることができ、特定空間9に通行人を向かわせる動機づけになり得る。
(2)コンテンツ処理サーバ1は、複数のカメラ5から画像を取得し、取得した画像のうち、最も混雑度合いの高い画像を用いたコンテンツを出力する。よって、複数の場所のうち、通行人がより興味を持ちやすい画像を含むコンテンツを出力できる。
(3)コンテンツ処理サーバ1は、カメラ5から画像を取得したことに応じて、表示装置4にコンテンツを出力する。よって、表示装置4は、ほぼリアルタイムの画像を表示することができる。
Thus, according to the content output system 100 of 1st Embodiment, there exist the following effects.
(1) The content processing server 1 determines the degree of congestion from an image captured by the camera 5 and displays content including an image with a high degree of congestion on the display device 4 installed at the entrance of the specific space 9. Therefore, a passerby or the like who has seen the display device 4 near the entrance can see a crowded state by the image, can stir the curiosity of the shooting location of the image, and directs the passerby to the specific space 9. It can be motivating.
(2) The content processing server 1 acquires images from a plurality of cameras 5 and outputs content using an image with the highest degree of congestion among the acquired images. Therefore, it is possible to output content including images that are more likely to be of interest to passers-by among a plurality of places.
(3) The content processing server 1 outputs content to the display device 4 in response to acquiring an image from the camera 5. Therefore, the display device 4 can display a substantially real-time image.

(4)コンテンツ処理サーバ1は、取得した画像に対して顔画像がある場合には、顔画像の領域に対して画像処理を行う。よって、写り込んだ人の顔が特定できないように加工をしたものを、コンテンツとして表示装置4に表示できるため、プライバシーの保護の観点からも優れたものにできる。
(5)コンテンツ処理サーバ1は、コンテンツを構成する画像の撮影位置を、地図上に示し、画像と地図とを含むコンテンツを生成して、表示装置4に送信する。よって、表示装置4では、画像と地図とを含むコンテンツを表示でき、表示装置4を見た通行人が、画像が示す特定空間9の位置を把握しやすくできる。結果として、通行人を、画像が撮影された場所に誘導できる。
(4) When there is a face image for the acquired image, the content processing server 1 performs image processing on the area of the face image. Therefore, since it can display on the display apparatus 4 as a content what was processed so that the reflected person's face could not be specified, it can be excellent from the viewpoint of privacy protection.
(5) The content processing server 1 indicates the shooting positions of the images constituting the content on a map, generates content including the image and the map, and transmits the content to the display device 4. Therefore, the display device 4 can display content including an image and a map, and a passerby who has viewed the display device 4 can easily grasp the position of the specific space 9 indicated by the image. As a result, a passerby can be guided to the place where the image was taken.

なお、第1実施形態によるコンテンツ出力システム100は、種々の変形が可能である。   Note that the content output system 100 according to the first embodiment can be variously modified.

(1)混雑度合いの判別には、種々の方法が考えられる。例えば、カメラ5による撮影範囲にマイクを設置し、周囲の音(音声)を集音することで、音声認識処理によって混雑度合いを判別してもよい。また、音声認識処理と、画像認識処理との両方の処理によって、混雑度合いを判別してもよい。   (1) Various methods are conceivable for determining the degree of congestion. For example, the degree of congestion may be determined by voice recognition processing by installing a microphone in the shooting range of the camera 5 and collecting surrounding sounds (voices). Further, the degree of congestion may be determined by both the voice recognition process and the image recognition process.

(2)混雑度合いを判別し、混雑度合いが高い画像を、出力するコンテンツとして判別するものに限定されない。第1実施形態に記載のように、混雑度合いが高い画像を、出力するコンテンツとして判別した場合には、コンテンツは、混んでいる状態を表すので、賑わっている様子を示すことものにできる。そのため、コンテンツを見た人を賑わいに参加させ、特定空間9がさらに盛り上がる動機づけになり得る。
逆に、混雑度合いが低い画像を、出力するコンテンツとして判別するものであってもよい。混雑度合いが低い画像を、出力するコンテンツとして判別することで、例えば、その画像がランチを提供する店舗である場合に、ランチ時間にコンテンツを見た人に、直ぐに入店できるという情報を与えることができ、来客させる動機づけになり得、また、集客に貢献し得る。
(2) The present invention is not limited to determining the degree of congestion and determining an image with a high degree of congestion as content to be output. As described in the first embodiment, when an image with a high degree of congestion is determined as the content to be output, the content represents a busy state, so that it can show a busy state. For this reason, people who have seen the content can be actively involved, and the specific space 9 can be further motivated.
Conversely, an image with a low degree of congestion may be determined as content to be output. By identifying an image with a low degree of congestion as the content to be output, for example, when the image is a store that provides lunch, give information that a person who viewed the content at lunch time can enter the store immediately Can be a motivation to attract customers and contribute to attracting customers.

(3)また、混雑度合いが閾値以上の画像が複数ある場合には、各画像を含むコンテンツを、時間の経過と共にコンテンツを切り替えて表示装置4に表示させてもよい。
さらに、混雑度合いが閾値以上の画像がない場合には、予め生成されて記憶部30に記憶されたコンテンツを、表示装置4に表示させてもよい。
(4)地図記憶部32とカメラ位置記憶部33とを用いて地図を生成するものに限られない。地図記憶部32に、各カメラ5の位置を含む地図を記憶しておけば、カメラ位置記憶部33を参照して地図を生成しなくても、地図記憶部32に記憶された該当のカメラ5の位置を含む地図を取得するようにしてもよい。
(3) When there are a plurality of images having a degree of congestion equal to or greater than a threshold value, the content including each image may be displayed on the display device 4 by switching the content over time.
Furthermore, when there is no image whose degree of congestion is equal to or greater than the threshold value, the content generated in advance and stored in the storage unit 30 may be displayed on the display device 4.
(4) It is not restricted to what produces | generates a map using the map memory | storage part 32 and the camera position memory | storage part 33. FIG. If a map including the position of each camera 5 is stored in the map storage unit 32, the corresponding camera 5 stored in the map storage unit 32 can be stored without generating a map with reference to the camera position storage unit 33. You may make it acquire the map containing the position of.

(第2実施形態)
第2実施形態では、ユーザが所持するカメラで撮影した画像を含むコンテンツを、表示装置に表示させるものについて説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
(Second Embodiment)
In the second embodiment, a description will be given of what causes a display device to display content including an image taken by a camera owned by a user. In the following description, parts that perform the same functions as those in the first embodiment described above are given the same reference numerals or the same reference numerals at the end, and redundant descriptions are omitted as appropriate.

<コンテンツ出力システム200>
図5は、第2実施形態に係るコンテンツ出力システム200の全体概要図である。
図6は、第2実施形態に係るコンテンツ処理サーバ201及び表示装置204の機能ブロック図である。
<Content output system 200>
FIG. 5 is an overall schematic diagram of a content output system 200 according to the second embodiment.
FIG. 6 is a functional block diagram of the content processing server 201 and the display device 204 according to the second embodiment.

図5に示すコンテンツ出力システム200は、例えば、レストラン等の入口であって、人が通る際に目に付く場所に、表示装置204を設置する。表示装置204を設置する場所は、特定空間209の近くである。特定空間209は、人がその場所に関するコメントを、ソーシャルネットワーキングサービス(SNS)等を使って発信するような場所である。そして、コンテンツ出力システム200は、特定空間209にいるユーザP1が、特定空間209の中で自身の携帯端末207を用いて撮影した画像を投稿することで、画像を含むコンテンツを、表示装置204に表示させるシステムである。
以降において、特定空間209は、レストランの店内であるとして説明する。
The content output system 200 shown in FIG. 5 installs the display device 204 at a place that is noticeable when a person passes, for example, at an entrance of a restaurant or the like. The place where the display device 204 is installed is near the specific space 209. The specific space 209 is a place where a person sends a comment regarding the place using a social networking service (SNS) or the like. Then, the content output system 200 posts the image captured by the user P1 in the specific space 209 using his / her mobile terminal 207 in the specific space 209, so that the content including the image is displayed on the display device 204. It is a system to display.
Hereinafter, the specific space 209 is described as being in a restaurant.

なお、図5では、1人のユーザP1が、携帯端末207を用いて投稿するものを例に説明するが、他のユーザも、自身の携帯端末207を用いて特定空間209の内部を撮影し、撮影した画像等をコンテンツ処理サーバ201に送信してもよい。また、ユーザP1は、店員等であってもよい。   Note that FIG. 5 illustrates an example in which one user P1 posts using the mobile terminal 207, but other users also photograph the inside of the specific space 209 using their own mobile terminal 207. The captured image may be transmitted to the content processing server 201. Further, the user P1 may be a store clerk or the like.

図6に示すコンテンツ出力システム200は、コンテンツ処理サーバ201と、1台の表示装置204と、1台以上の携帯端末207とを備える。コンテンツ処理サーバ201と、表示装置204とは、通信ネットワークNを介して通信可能に接続されている。
携帯端末207は、基地局Bを介して通信ネットワークNに接続されている。基地局Bは、無線通信の基地局であって、携帯端末207がコンテンツ処理サーバ201との間で通信をするための中継を行う。基地局Bは、例えば、Wi−Fi等の無線LAN(Local Area Network)の基地局や、通信事業者の携帯端末通信網用の基地局である。そして、基地局Bは、例えば、特定空間209に設置され、特定空間209にある携帯端末207のみが通信可能である。
つまり、携帯端末207は、特定空間209でのみ、コンテンツ処理サーバ201と通信が可能である。
A content output system 200 illustrated in FIG. 6 includes a content processing server 201, one display device 204, and one or more mobile terminals 207. The content processing server 201 and the display device 204 are communicably connected via a communication network N.
The portable terminal 207 is connected to the communication network N via the base station B. The base station B is a base station for wireless communication, and relays for the mobile terminal 207 to communicate with the content processing server 201. The base station B is, for example, a wireless LAN (Local Area Network) base station such as Wi-Fi or a base station for a mobile terminal communication network of a communication carrier. And base station B is installed in the specific space 209, for example, and only the portable terminal 207 in the specific space 209 can communicate.
That is, the portable terminal 207 can communicate with the content processing server 201 only in the specific space 209.

<コンテンツ処理サーバ201>
コンテンツ処理サーバ201は、携帯端末207から画像を取得し、取得した画像を判別した結果に応じて、画像を含むコンテンツを生成して、表示装置204に送信する。
コンテンツ処理サーバ201は、制御部210と、記憶部230と、通信インタフェース部39とを備える。
制御部210は、画像取得部211と、コメント受付部212(コメント受付手段)と、画像判別部213(画像判別手段)と、タグ付与部214(タグ付与手段)と、順位付与部215(順位付与手段)と、コンテンツ生成部217(コメント付加手段)と、コンテンツ送信部18と、評価受付部220(評価受付手段)とを備える。
<Content processing server 201>
The content processing server 201 acquires an image from the mobile terminal 207, generates content including the image according to the result of determining the acquired image, and transmits the content to the display device 204.
The content processing server 201 includes a control unit 210, a storage unit 230, and a communication interface unit 39.
The control unit 210 includes an image acquisition unit 211, a comment reception unit 212 (comment reception unit), an image determination unit 213 (image determination unit), a tag provision unit 214 (tag provision unit), and a rank provision unit 215 (order). Providing unit), a content generation unit 217 (comment adding unit), a content transmission unit 18, and an evaluation receiving unit 220 (evaluation receiving unit).

画像取得部211は、特定空間209の中でユーザP1が携帯端末207を操作して撮影した画像を、携帯端末207から受信することで取得する。画像取得部211は、基地局B及び通信ネットワークNを介して画像を取得する。
コメント受付部212は、ユーザP1が入力したコメントを、携帯端末207から受信することで受け付ける。コメントは、例えば、画像ついてのユーザP1の感想等である。
The image acquisition unit 211 acquires an image captured by the user P1 operating the mobile terminal 207 in the specific space 209 from the mobile terminal 207. The image acquisition unit 211 acquires an image via the base station B and the communication network N.
The comment receiving unit 212 receives a comment input by the user P <b> 1 by receiving it from the mobile terminal 207. The comment is, for example, an impression of the user P1 about the image.

画像判別部213は、画像取得部211によって取得した画像を判別する。画像判別部213は、例えば、取得した画像に位置情報を含むメタ情報を有する場合には、位置情報が特定空間209の位置を示すものであるか否かを判別することで、取得した画像が特定空間209で撮影されたものであるか否かを判別してもよい。また、画像判別部213は、例えば、取得した画像に日時情報を含むメタ情報を有する場合には、日時情報が現在日時に近いものであるか否かを判別して、取得した画像が直近に撮影されたものであるか否かを判別してもよい。さらに、画像判別部213は、画像認識処理によって、被写体を判別してもよい。そして、画像判別部213は、上述の判別結果により、画像をコンテンツとして出力するか否かを判別する。   The image determination unit 213 determines the image acquired by the image acquisition unit 211. For example, when the acquired image has meta information including position information, the image determination unit 213 determines whether the position information indicates the position of the specific space 209 so that the acquired image is It may be determined whether or not the image is taken in the specific space 209. For example, when the acquired image has meta information including date information, the image determination unit 213 determines whether the date information is close to the current date and time, and the acquired image is the latest. It may be determined whether or not the image has been taken. Furthermore, the image determination unit 213 may determine the subject by image recognition processing. Then, the image determination unit 213 determines whether to output an image as content based on the determination result described above.

タグ付与部214は、画像に関するタグを付与する。タグ付与部214は、例えば、画像判別部213による判別結果を用いて、タグを付与してもよい。具体的には、タグ付与部214は、画像に含まれる被写体の内容を、タグとして付与してもよい。
タグ付与部214は、例えば、公知の説明文生成ソフトウェアである“DenseCap”を使用して、画像データに関する説明文を生成した上で、翻訳し、翻訳した説明文から単語を取得して、それをタグとしてタグ付けに用いてもよい。
また、タグ付与部214は、携帯端末207のユーザP1の属性を、タグとして付与してもよい。ユーザP1の属性とは、年齢、性別等であり、携帯端末207や、携帯端末207と通信可能なサーバ(図示せず)に記憶されたユーザP1の属性を用いてもよいし、ユーザP1に属性を入力させてもよい。また、図示しない特定空間209を撮影するカメラによってユーザP1を撮影し、ユーザP1の画像から属性を得てもよい。
The tag assigning unit 214 assigns a tag related to the image. For example, the tag adding unit 214 may add a tag using the determination result by the image determining unit 213. Specifically, the tag assigning unit 214 may assign the content of the subject included in the image as a tag.
The tag assigning unit 214 uses, for example, “DensCap”, which is well-known explanatory text generation software, to generate an explanatory text about the image data, translate it, acquire a word from the translated explanatory text, May be used as a tag for tagging.
Moreover, the tag provision part 214 may provide the attribute of the user P1 of the portable terminal 207 as a tag. The attributes of the user P1 are age, sex, etc., and the attributes of the user P1 stored in the mobile terminal 207 or a server (not shown) that can communicate with the mobile terminal 207 may be used. Attributes may be entered. Alternatively, the user P1 may be photographed by a camera that photographs the specific space 209 (not shown), and the attribute may be obtained from the image of the user P1.

順位付与部215は、タグ付けがされた画像に対して優先順位を付与する。順位付与部215は、例えば、画像全体に占める特定空間209で提供される商品等の割合が高いものから順に、優先順位を付与してもよい。また、順位付与部215は、後述する評価受付部220が受け付けた評価に基づいて、優先順位を付与してもよい。さらに、順位付与部215は、コンテンツ処理サーバ201の管理者等が優先順位を入力することで、画像に優先順位を付与してもよい。
コンテンツ生成部217は、画像取得部211が取得した画像に、その画像に対するコメントを付加したコンテンツを生成する。
評価受付部220は、表示装置204に表示されたコンテンツに対する評価を受け付ける。
The order assigning unit 215 assigns a priority order to the tagged images. For example, the rank assigning unit 215 may assign priorities in descending order of the ratio of products or the like provided in the specific space 209 in the entire image. Further, the rank assigning unit 215 may assign a priority order based on an evaluation received by an evaluation receiving unit 220 described later. Furthermore, the order assigning unit 215 may assign priorities to the images when the administrator of the content processing server 201 inputs the priorities.
The content generation unit 217 generates content obtained by adding a comment to the image acquired by the image acquisition unit 211.
The evaluation receiving unit 220 receives an evaluation for the content displayed on the display device 204.

記憶部230は、プログラム記憶部231と、コンテンツ記憶部234とを備える。
プログラム記憶部231は、コンテンツ処理サーバ201の制御部210が実行する各種機能を行うためのプログラムであるコンテンツ処理プログラム231aを記憶している。
コンテンツ記憶部234は、画像取得部211が取得した画像及びその画像に対するコメントを含むコンテンツを記憶する。また、コンテンツ記憶部234は、コンテンツに対応付けて、優先順位や評価を記憶する。
The storage unit 230 includes a program storage unit 231 and a content storage unit 234.
The program storage unit 231 stores a content processing program 231a that is a program for performing various functions executed by the control unit 210 of the content processing server 201.
The content storage unit 234 stores content including an image acquired by the image acquisition unit 211 and a comment on the image. Further, the content storage unit 234 stores the priority order and the evaluation in association with the content.

<表示装置204>
表示装置204は、コンテンツ処理サーバ201から受信した特定空間209の画像を含むコンテンツを表示する装置である。
表示装置204は、制御部240と、記憶部245と、表示部246と、カメラ248と、通信部249とを備える。
制御部240は、表示装置204の全体を制御するCPUである。制御部240は、記憶部245に記憶されているOSやアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
記憶部245は、制御部240が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
<Display device 204>
The display device 204 is a device that displays content including an image of the specific space 209 received from the content processing server 201.
The display device 204 includes a control unit 240, a storage unit 245, a display unit 246, a camera 248, and a communication unit 249.
The control unit 240 is a CPU that controls the entire display device 204. The control unit 240 executes various functions in cooperation with the hardware described above by appropriately reading and executing the OS and application programs stored in the storage unit 245.
The storage unit 245 is a storage area such as a hard disk or a semiconductor memory element for storing programs, data, and the like necessary for the control unit 240 to execute various processes.

表示部246は、大型の液晶ディスプレイ等のモニタである。
カメラ248は、例えば、表示装置204の上側に設けられ、表示装置204の表示部246の対面にいる通行人P2を撮影する。また、カメラ248は、動画像を撮影し続ける。
通信部249は、通信ネットワークNを介してコンテンツ処理サーバ201との間の通信を行うためのインタフェースである。
なお、図6に示す例では、カメラ248は、表示装置204の一部に有するものであるが、カメラ248は、表示装置204と別体であってもよい。
The display unit 246 is a monitor such as a large liquid crystal display.
For example, the camera 248 is provided on the upper side of the display device 204 and photographs the passerby P2 facing the display unit 246 of the display device 204. The camera 248 continues to capture moving images.
The communication unit 249 is an interface for performing communication with the content processing server 201 via the communication network N.
In the example illustrated in FIG. 6, the camera 248 is included in part of the display device 204, but the camera 248 may be separate from the display device 204.

<携帯端末207>
携帯端末207は、ユーザP1が所持する、例えば、スマートフォンやタブレットに代表されるコンピュータの機能を併せ持った携帯型の装置である。携帯端末207は、その他、携帯電話機等でもよいし、PC等であってもよい。
携帯端末207は、図示しないが、制御部、記憶部、タッチパネルディスプレイ、カメラ(撮影装置)、通信インタフェース部等を備える。カメラは、視野内を撮影する撮像手段としての機能を有し、通信インタフェース部は、撮像手段により撮影された画像を送信する送信手段としての機能を有する。そして、ユーザP1が特定空間209で、携帯端末207を操作することで、携帯端末207は、特定空間209を撮影した画像を取得し、撮影した画像に対するコメントの入力を受け付け、画像及びコメントを、コンテンツ処理サーバ201に送信(投稿)する。
<Portable terminal 207>
The portable terminal 207 is a portable device possessed by the user P1 and having the functions of a computer represented by, for example, a smartphone or a tablet. In addition, the mobile terminal 207 may be a mobile phone or the like, or may be a PC or the like.
Although not shown, the portable terminal 207 includes a control unit, a storage unit, a touch panel display, a camera (imaging device), a communication interface unit, and the like. The camera has a function as an imaging unit that captures an image within the visual field, and the communication interface unit has a function as a transmission unit that transmits an image captured by the imaging unit. Then, when the user P1 operates the portable terminal 207 in the specific space 209, the portable terminal 207 acquires an image obtained by photographing the specific space 209, receives an input of a comment on the photographed image, Transmit (post) to the content processing server 201.

<コンテンツ生成処理>
次に、表示装置204に表示させるコンテンツを生成する処理について説明する。
図7は、第2実施形態に係るコンテンツ処理サーバ201のコンテンツ生成処理を示すフローチャートである。
図7のS210において、コンテンツ処理サーバ201の制御部210(画像取得部211、コメント受付部212)は、携帯端末207から画像(コンテンツ)及びコメントを受信する。
ここで、携帯端末207では、コンテンツ処理サーバ201にアクセスし、例えば、Webサイトから撮影した画像とコメントとを登録してもよい。また、携帯端末207では、コンテンツを送信するためのアプリケーションプログラム(以下、アプリともいう。)をインストール及び起動して、アプリの実行にしたがって画像及びコメントを入力してもよい。
<Content generation processing>
Next, processing for generating content to be displayed on the display device 204 will be described.
FIG. 7 is a flowchart showing content generation processing of the content processing server 201 according to the second embodiment.
In S <b> 210 of FIG. 7, the control unit 210 (the image acquisition unit 211 and the comment reception unit 212) of the content processing server 201 receives an image (content) and a comment from the mobile terminal 207.
Here, the mobile terminal 207 may access the content processing server 201 and register, for example, images and comments taken from a website. In portable terminal 207, an application program (hereinafter also referred to as an application) for transmitting content may be installed and activated, and an image and a comment may be input according to the execution of the application.

S211において、制御部210(画像判別部213)は、取得した各画像を判別する。制御部210は、取得した画像が、特定空間209で撮影されたものであるか否かを、例えば、画像のメタ情報によって判別してもよい。また、制御部210は、画像に対して画像認識処理をすることで、画像に写り込んでいるものを抽出して、表示対象に適しているか否かを判別してもよい。より具体的には、例えば、料理が中心に写り込む画像であれば、制御部210は、表示対象に適していると判別し、料理が一切写り込んでいない画像であれば、制御部210は、表示対象に適していないと判別してもよい。   In S211, the control unit 210 (image determination unit 213) determines each acquired image. For example, the control unit 210 may determine whether the acquired image is taken in the specific space 209 based on the meta information of the image. In addition, the control unit 210 may perform image recognition processing on the image to extract what is reflected in the image and determine whether or not the image is suitable for the display target. More specifically, for example, if the image shows the dish in the center, the control unit 210 determines that the dish is suitable for the display target, and if the image does not include any dish, the control unit 210 Alternatively, it may be determined that the display object is not suitable.

S212において、制御部210は、画像判別処理によって、画像を、表示装置204への表示対象にするか否かを判定する。例えば、特定空間209で撮影された画像ではないと判別されたり、表示対象に適していないと判別されたりした場合には、表示対象にしないと判定する。表示対象にする場合(S212:YES)には、制御部210は、処理をS213に移す。他方、表示対象にしない場合(S212:NO)には、制御部210は、本処理を終了する。   In step S <b> 212, the control unit 210 determines whether or not the image is to be displayed on the display device 204 by image determination processing. For example, when it is determined that the image is not captured in the specific space 209 or when it is determined that the image is not suitable for the display target, it is determined that the image is not the display target. When the display target is to be displayed (S212: YES), the control unit 210 moves the process to S213. On the other hand, when not making it a display target (S212: NO), the control part 210 complete | finishes this process.

S213において、制御部210(タグ付与部214)は、画像にタグ付けをする。タグは、例えば、画像認識処理結果から抽出した単語であってもよいし、その画像を撮影したユーザP1の属性であってもよい。
S214において、制御部210(順位付与部215)は、タグ付けされた画像が複数ある場合に、画像に順位付けをする。
S215において、制御部210(コンテンツ生成部217)は、画像を含むコンテンツにコメントを付加し、コンテンツ記憶部234に記憶させる。その後、制御部210は、本処理を終了する。
In S213, the control unit 210 (tag giving unit 214) tags the image. The tag may be, for example, a word extracted from the image recognition processing result, or may be an attribute of the user P1 who captured the image.
In S <b> 214, the control unit 210 (rank assignment unit 215) ranks the images when there are a plurality of tagged images.
In S215, the control unit 210 (content generation unit 217) adds a comment to the content including the image and stores the comment in the content storage unit 234. Thereafter, the control unit 210 ends this process.

<コンテンツ表示処理>
次に、表示装置204にコンテンツを表示させる処理について説明する。
図8は、第2実施形態に係るコンテンツ処理サーバ201のコンテンツ表示処理を示すフローチャートである。
図9は、第2実施形態に係る表示装置204での表示例を示す図である。
図10は、第2実施形態に係る表示装置204のコンテンツ評価受付処理を示すフローチャートである。
<Content display processing>
Next, processing for displaying content on the display device 204 will be described.
FIG. 8 is a flowchart showing content display processing of the content processing server 201 according to the second embodiment.
FIG. 9 is a diagram illustrating a display example on the display device 204 according to the second embodiment.
FIG. 10 is a flowchart showing content evaluation acceptance processing of the display device 204 according to the second embodiment.

図8のS230において、コンテンツ処理サーバ1の制御部210(コンテンツ送信部18)は、コンテンツ記憶部234を参照し、優先順位に基づいてコンテンツを表示装置204に送信する。制御部210は、例えば、優先順位の高いコンテンツから順番にコンテンツを送信してもよい。また、制御部210は、例えば、優先順位の高いコンテンツを、優先順位の低いコンテンツよりも数多く表示装置204に送信してもよい。さらに、制御部210は、例えば、優先順位が高いコンテンツと、低いコンテンツとで、送信する日時や曜日等を変えてもよい。   In S230 of FIG. 8, the control unit 210 (content transmission unit 18) of the content processing server 1 refers to the content storage unit 234 and transmits the content to the display device 204 based on the priority order. For example, the control unit 210 may transmit the content in order from the content with the highest priority. In addition, for example, the control unit 210 may transmit more content with higher priority to the display device 204 than content with lower priority. Further, for example, the control unit 210 may change the transmission date and time, the day of the week, and the like between content with high priority and content with low priority.

表示装置204には、図9に示すように、コンテンツ処理サーバ201から送信されたコンテンツ260が表示される。
コンテンツ260は、画像領域261と、コメント領域262とを含む。画像領域261の画像と、コメント領域262のコメントとは、ユーザP1が携帯端末207によって撮影及び入力されたものである。また、コンテンツ260は、コンテンツ260を見た通行人等が評価するための指示表示領域263と、評価結果表示領域264とを含む。
As shown in FIG. 9, the display device 204 displays the content 260 transmitted from the content processing server 201.
The content 260 includes an image area 261 and a comment area 262. The image in the image area 261 and the comment in the comment area 262 are taken and input by the user P1 by the portable terminal 207. The content 260 includes an instruction display area 263 for evaluation by passers-by who have seen the content 260, and an evaluation result display area 264.

通行人P2がコンテンツ260を見て、コンテンツ260に対する評価をする場合には、図9に示すように、通行人P2は、「いいね」を表すジェスチャーをする。表示装置204のカメラ248は、表示装置204を見て「いいね」を表すジェスチャーをする通行人P2を撮影する。   When the passerby P2 looks at the content 260 and evaluates the content 260, the passerby P2 makes a gesture indicating “like” as shown in FIG. The camera 248 of the display device 204 shoots the passerby P2 who looks at the display device 204 and makes a gesture indicating “Like”.

ここで、表示装置204によるコンテンツ評価受付処理について、図10に基づき説明する。
図10のS250において、表示装置204の制御部240は、カメラ248で撮影した画像を、カメラ248から取得する。
S251において、制御部240は、取得した画像を解析する画像解析処理を行う。具体的には、制御部240は、画像に人物を含み、人物が所定のジェスチャー(この例では、「いいね」を表すジェスチャー)をしているか否かを判別する。
S252において、制御部240は、S251による判別結果として、評価対象画像であるか否かを判断する。評価対象画像である場合(S252:YES)には、制御部240は、処理をS253に移す。他方、評価対象画像ではない場合(S252:NO)には、制御部240は、処理をS254に移す。
Here, the content evaluation acceptance processing by the display device 204 will be described with reference to FIG.
In S250 of FIG. 10, the control unit 240 of the display device 204 acquires an image captured by the camera 248 from the camera 248.
In S251, the control unit 240 performs image analysis processing for analyzing the acquired image. Specifically, the control unit 240 determines whether or not the image includes a person and the person is performing a predetermined gesture (in this example, a gesture indicating “Like”).
In S252, the control unit 240 determines whether the image is an evaluation target image as the determination result in S251. If the image is an evaluation target image (S252: YES), the control unit 240 moves the process to S253. On the other hand, when it is not an evaluation object image (S252: NO), the control part 240 moves a process to S254.

S253において、制御部240は、評価をカウントして記憶部245に記憶し、さらに、カウントした評価をコンテンツに反映させる。
この処理によって、図9で出力しているコンテンツ260の評価結果表示領域264に表示された評価の数が、3から4に変わる。
S254において、制御部240は、表示するコンテンツが、次のコンテンツに変わったか否かを判断する。コンテンツが変わった場合(S254:YES)には、制御部240は、処理をS255に移す。他方、コンテンツが変わっていない場合(S254:NO)には、制御部240は、処理をS250に移し、本処理を繰り返す。
S255において、制御部240は、記憶部245に記憶された評価のカウント数を、評価結果として出力する。出力した評価結果は、コンテンツ処理サーバ201に送信される。その後、制御部240は、処理をS250に移し、本処理を繰り返す。
In S253, the control unit 240 counts the evaluation and stores it in the storage unit 245, and further reflects the counted evaluation in the content.
By this processing, the number of evaluations displayed in the evaluation result display area 264 of the content 260 output in FIG. 9 changes from 3 to 4.
In S254, the control unit 240 determines whether the content to be displayed has changed to the next content. If the content has changed (S254: YES), the control unit 240 moves the process to S255. On the other hand, if the content has not changed (S254: NO), the control unit 240 moves the process to S250 and repeats this process.
In step S255, the control unit 240 outputs the evaluation count stored in the storage unit 245 as an evaluation result. The output evaluation result is transmitted to the content processing server 201. Thereafter, the control unit 240 moves the process to S250 and repeats this process.

図8の説明に戻り、S231において、制御部210(評価受付部220)は、コンテンツに対する評価を表示装置204から受け付けたか否かを判断する。具体的には、制御部210は、表示装置204が図10のS255において送信した、評価のカウント数を受信することで、コンテンツに対する評価を受け付ける。コンテンツに対する評価を受け付けた場合(S231:YES)には、制御部210は、処理をS232に移す。他方、コンテンツに対する評価を受け付けていない場合(S231:NO)には、制御部210は、本処理に留まる。
S232において、制御部210は、受け付けた評価を、コンテンツ記憶部234に反映させる。また、制御部210(順位付与部215)は、評価に基づいて、コンテンツの優先順位を付与する。その後、制御部210は、処理をS230に移し、コンテンツを表示装置204に送信する処理を繰り返す。
Returning to the description of FIG. 8, in step S <b> 231, the control unit 210 (evaluation receiving unit 220) determines whether or not an evaluation for content has been received from the display device 204. Specifically, the control unit 210 receives the evaluation for the content by receiving the evaluation count number transmitted by the display device 204 in S255 of FIG. When the evaluation for the content is received (S231: YES), the control unit 210 moves the process to S232. On the other hand, when the evaluation for the content is not received (S231: NO), the control unit 210 remains in this process.
In S232, the control unit 210 reflects the received evaluation in the content storage unit 234. In addition, the control unit 210 (rank assignment unit 215) assigns a priority order of contents based on the evaluation. Thereafter, the control unit 210 moves the process to S230 and repeats the process of transmitting the content to the display device 204.

このように、第2実施形態のコンテンツ出力システム200によれば、以下のような効果がある。
(1)コンテンツ処理サーバ201は、ユーザP1の携帯端末207で撮影した画像及びコメントを含むコンテンツを、撮影場所である特定空間209の近傍に設置された表示装置204に表示させる。コンテンツは、ユーザP1によって撮影された画像及びコメントを含むので、臨場感があり、共感ができ、しかも、オリジナリティのあるものになる。よって、表示装置204を見た通行人P2に、興味を示させるコンテンツを提供でき、例えば、特定空間209に入る動機づけになり得る。また、ユーザP1は、自身が撮影した画像及び自身が入力したコメントが表示装置204に表示されるので、投稿する楽しさを提供でき、投稿する動機づけになり得る。
Thus, according to the content output system 200 of 2nd Embodiment, there exist the following effects.
(1) The content processing server 201 displays content including images and comments captured by the mobile terminal 207 of the user P1 on the display device 204 installed in the vicinity of the specific space 209 that is the shooting location. Since the content includes images and comments taken by the user P1, the content is realistic, sympathetic, and original. Therefore, it is possible to provide content that shows interest to the passerby P2 who has seen the display device 204. For example, the content can be motivated to enter the specific space 209. In addition, since the image captured by the user P1 and the comment input by the user P1 are displayed on the display device 204, the user P1 can provide the enjoyment of posting and can be motivated to post.

(2)コンテンツ処理サーバ201は、画像に優先順位を付与して、優先順位に基づいてコンテンツを表示装置204に送信する。よって、優先順位の高いコンテンツを優先的に表示させることができる。
(3)コンテンツ処理サーバ201は、画像にタグを付与する。付与するタグは、画像の内容に関するものや、画像を撮影したユーザP1に関するものにできる。また、優先順位を、画像に付与されたタグに基づいて付与できる。よって、例えば、料理が大きく写った画像の優先順位を高くしたりできる。
(4)コンテンツ処理サーバ201は、通行人P2の評価に基づいて、優先順位を付与できる。よって、コンテンツを見た人の評価が高いコンテンツに、高い優先順位を付与でき、より優先的にコンテンツを表示させることができる。
(2) The content processing server 201 assigns priorities to the images, and transmits the content to the display device 204 based on the priorities. Therefore, it is possible to preferentially display content with high priority.
(3) The content processing server 201 adds a tag to the image. The tag to be assigned can be related to the contents of the image or related to the user P1 who captured the image. Further, the priority order can be assigned based on the tag attached to the image. Therefore, for example, it is possible to increase the priority of an image in which a large dish is shown.
(4) The content processing server 201 can assign priorities based on the evaluation of the passerby P2. Therefore, a high priority can be given to the content that is highly evaluated by the person who viewed the content, and the content can be displayed more preferentially.

なお、第2実施形態によるコンテンツ出力システム200は、種々の変形が可能である。   Note that the content output system 200 according to the second embodiment can be variously modified.

(1)携帯端末207が特定空間209にある場合に、基地局Bを介したコンテンツ処理サーバ201との通信を可能にすることで、携帯端末207から受信した画像が特定空間209で撮影された画像であるという判定を行うものを例に説明した。しかし、携帯端末207から受信した画像が特定空間209で撮影された画像であるという判定は、種々の方法が考えられる。例えば、携帯端末207の位置情報を取得し、取得した位置が特定空間209の位置であることを条件に、携帯端末207により特定空間209で撮影された画像であると判定してもよい。   (1) When the mobile terminal 207 is in the specific space 209, by enabling communication with the content processing server 201 via the base station B, an image received from the mobile terminal 207 is taken in the specific space 209. The description has been given taking as an example what is determined to be an image. However, various methods can be considered for determining that the image received from the mobile terminal 207 is an image taken in the specific space 209. For example, the position information of the mobile terminal 207 may be acquired, and it may be determined that the image is captured in the specific space 209 by the mobile terminal 207 on the condition that the acquired position is the position of the specific space 209.

(2)携帯端末207から取得した画像を判別して表示対象にするか否かを判断したが、加えて、コメントの内容についても表示対象にするかを判断してもよい。コメントに、例えば、別途有する禁止ワード等の不適格な内容を含む場合、禁止ワードを除外して表示対象にしてもよいし、コメントを表示対象にしなくてもよい。   (2) Although the image acquired from the portable terminal 207 is discriminated to determine whether or not to be displayed, it may be determined whether or not the content of the comment is also to be displayed. For example, when the comment includes ineligible contents such as a prohibited word that is separately provided, the prohibited word may be excluded from the display target, or the comment may not be displayed.

(3)表示装置204が、通行人P2の評価を受け付けて処理をするものを説明したが、カメラ248が撮影した画像を、コンテンツ処理サーバ201が受信して、コンテンツ処理サーバ201でコンテンツ評価受付処理を行ってもよい。
また、通行人P2の評価を、評価対象のジェスチャーを画像認識処理で判定することで受け付けたが、ジェスチャーに限定されない。例えば、表示装置204の方向を見ている時間と表情とによって、評価を算出してもよい。また、例えば、表示装置に操作部を設けて、通行人P2に操作をしてもらう等、他の方法で行われた評価を受け付けてもよい。
(3) Although the display device 204 has received and processed the evaluation of the passerby P2, the content processing server 201 receives the image taken by the camera 248, and the content processing server 201 receives the content evaluation. Processing may be performed.
Moreover, although evaluation of passerby P2 was received by determining the gesture of evaluation object by an image recognition process, it is not limited to a gesture. For example, the evaluation may be calculated based on the time and the expression when looking at the direction of the display device 204. In addition, for example, an operation unit may be provided in the display device and an evaluation performed by another method may be received, such as having the passerby P2 perform an operation.

(4)コンテンツ出力システム200は、ユーザP1が画像及びコメントを取得及び入力してコンテンツ処理サーバ201に送信するだけでも、ユーザP1に投稿する楽しみを与えることができるが、投稿したインセンティブとして、例えば、割引等をユーザP1に与えるようにしてもよい。そのようにすることで、ユーザP1が積極的に投稿する動機づけになり得る。   (4) The content output system 200 can give the user P1 the pleasure of posting even if the user P1 acquires and inputs an image and a comment, and transmits them to the content processing server 201. A discount or the like may be given to the user P1. By doing so, the user P1 can be motivated to actively post.

(5)カメラ248は、取得した画像を用いて通行人P2の評価を得るものを説明したが、取得した画像から通行人P2の属性を取得し、属性に応じて表示装置204に表示させるコンテンツを変えるようにしてもよい。例えば、画像に関するタグと、通行人P2の属性とが一致又は類似するコンテンツを、表示装置204に表示させるようにしてもよい。そのようにすることで、より通行人P2が興味を持つコンテンツを表示させることができる。   (5) Although the camera 248 has been described for obtaining the passerby P2 evaluation using the acquired image, the content of the passerby P2 acquired from the acquired image and displayed on the display device 204 according to the attribute May be changed. For example, the display device 204 may display content in which the tag related to the image matches or is similar to the attribute of the passerby P2. By doing so, it is possible to display content that the passerby P2 is more interested in.

(6)特定空間209を、レストランの店内を例に説明したが、種々の場所で実現できる。例えば、衣類等の販売店であれば、販売している衣類を試着している画像とコメントとを含むコンテンツを生成して表示させてもよい。また、例えば、美容院等であれば、カット等をした後の髪型とコメントとを含むコンテンツを生成して表示させてもよい。   (6) Although the specific space 209 has been described by taking the inside of a restaurant as an example, it can be realized in various places. For example, if it is a store of clothing or the like, content including an image of trying on clothing being sold and a comment may be generated and displayed. For example, in the case of a beauty salon, content including a hairstyle after a cut or the like and a comment may be generated and displayed.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。   As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. In addition, the effects described in the embodiments are merely the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be used combining suitably, detailed description is abbreviate | omitted.

(変形形態)
(1)各実施形態では、表示装置は、通信ネットワークを介して接続されているものとして説明したが、これに限定されない。例えば、コンテンツ処理サーバと、ディスプレイとが一体になったコンテンツ出力装置であってもよい。
(2)各実施形態では、表示装置が、デジタルサイネージのようなものであって、特定空間の近傍に設けられたものを例に説明したが、これに限定されない。例えば、表示装置は、パーソナルコンピュータ(PC)やタブレット等であってもよい。
(3)各実施形態では、コンテンツの表示期限について、特に説明をしなかったが、コンテンツ生成日時を有し、古いコンテンツは表示対象にしないようにしてもよい。
(Deformation)
(1) In each embodiment, the display device is described as being connected via a communication network. However, the present invention is not limited to this. For example, a content output device in which a content processing server and a display are integrated may be used.
(2) In each embodiment, the display device is like a digital signage and is provided in the vicinity of the specific space. However, the present invention is not limited to this. For example, the display device may be a personal computer (PC), a tablet, or the like.
(3) In each embodiment, the content display deadline has not been particularly described. However, the content generation date and time and old content may not be displayed.

1,201 コンテンツ処理サーバ
4,204 表示装置
5 カメラ
9,209 特定空間
10,210 制御部
11,211 画像取得部
13,213 画像判別部
16 地図生成部
17,217 コンテンツ生成部
18 コンテンツ送信部
30,230 記憶部
31a,231a コンテンツ処理プログラム
32 地図記憶部
100,200 コンテンツ出力システム
207 携帯端末
212 コメント受付部
214 タグ付与部
215 順位付与部
220 評価受付部
234 コンテンツ記憶部
246 表示部
248 カメラ
B 基地局
P1 ユーザ
P2 通行人
1,201 Content processing server 4,204 Display device 5 Camera 9,209 Specific space 10,210 Control unit 11, 211 Image acquisition unit 13,213 Image discrimination unit 16 Map generation unit 17,217 Content generation unit 18 Content transmission unit 30 , 230 Storage unit 31a, 231a Content processing program 32 Map storage unit 100, 200 Content output system 207 Mobile terminal 212 Comment reception unit 214 Tag assignment unit 215 Ranking assignment unit 220 Evaluation reception unit 234 Content storage unit 246 Display unit 248 Camera B base Station P1 User P2 Passerby

Claims (11)

視野内を撮影する撮像手段と、前記撮像手段により撮影された画像を送信する送信手段と、を有する撮影装置と、
前記撮影装置により撮影された前記画像を含むコンテンツを受信して出力するコンテンツ出力装置と、
を備えたコンテンツ出力システムであって、
前記コンテンツ出力装置は、
前記撮影装置により撮影された前記画像を解析して、解析結果に応じて出力するコンテンツを判別する画像判別手段と、
前記画像判別手段により判別された前記コンテンツを出力するコンテンツ出力手段と、
を備えること、
を特徴とするコンテンツ出力システム。
An imaging device having imaging means for imaging the field of view; and transmission means for transmitting an image taken by the imaging means;
A content output device that receives and outputs content including the image captured by the imaging device;
A content output system comprising:
The content output device includes:
Image discriminating means for analyzing the image photographed by the photographing device and discriminating content to be output according to the analysis result;
Content output means for outputting the content discriminated by the image discrimination means;
Providing
Content output system characterized by
請求項1に記載のコンテンツ出力システムにおいて、
前記撮影装置は、音声を含む動画像を、前記画像として取得し、
前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して画像認識処理及び音声認識処理のうち少なくとも一方を行って、混雑度合いに応じて出力するコンテンツを判別すること、
を特徴とするコンテンツ出力システム。
The content output system according to claim 1,
The photographing device acquires a moving image including sound as the image,
The image determination unit of the content output device performs at least one of an image recognition process and a voice recognition process on the image to determine a content to be output according to a degree of congestion;
Content output system characterized by
請求項1又は請求項2に記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して画像認識処理を行って、顔画像を含むか否かを判別し、
前記コンテンツ出力装置は、前記画像に顔画像を含むと判別した場合には、前記顔画像の領域に対して画像処理を行って、画像処理後の画像を含む前記コンテンツを生成するコンテンツ加工手段を備えること、
を特徴とするコンテンツ出力システム。
The content output system according to claim 1 or 2,
The image determination means of the content output device performs image recognition processing on the image to determine whether or not a face image is included;
If the content output device determines that the image includes a face image, the content output device performs image processing on the face image region, and generates content including the image after image processing. Preparing,
Content output system characterized by
請求項1から請求項3までのいずれかに記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置の前記画像判別手段は、異なる位置を撮影する複数の前記撮影装置により撮影された画像を各々含む複数のコンテンツから1以上の前記コンテンツを判別すること、
を特徴とするコンテンツ出力システム。
In the content output system in any one of Claim 1- Claim 3,
The image discriminating means of the content output device discriminates one or more contents from a plurality of contents each including images taken by a plurality of the photographing devices that photograph different positions;
Content output system characterized by
請求項1から請求項4までのいずれかに記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置は、
前記画像に関するタグを付与するタグ付与手段と、
前記タグ付与手段により付与された前記タグに基づいて、前記画像に対して優先順位を付与する順位付与手段と、
を備え、
前記コンテンツ出力装置の前記コンテンツ出力手段は、さらに、前記順位付与手段により付与された優先順位に基づいて、前記コンテンツを出力すること、
を特徴とするコンテンツ出力システム。
In the content output system in any one of Claim 1- Claim 4,
The content output device includes:
Tag giving means for giving a tag related to the image;
A rank giving means for giving a priority to the image based on the tag given by the tag giving means;
With
The content output means of the content output device further outputs the content based on the priority assigned by the order assigning means;
Content output system characterized by
請求項5に記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置は、前記コンテンツ出力装置に表示された前記コンテンツに対する評価を受け付ける評価受付手段を備え、
前記コンテンツ出力装置の前記順位付与手段は、前記評価受付手段が受け付けた評価に基づいて、前記画像に対して優先順位を付与すること、
を特徴とするコンテンツ出力システム。
The content output system according to claim 5, wherein
The content output device comprises an evaluation receiving means for receiving an evaluation on the content displayed on the content output device,
The rank assigning means of the content output device assigns a priority to the image based on the evaluation received by the evaluation receiving means;
Content output system characterized by
請求項1から請求項6までのいずれかに記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置は、前記画像に関するコメントを受け付けるコメント受付手段を備え、
前記コンテンツ出力装置は、前記コメント受付手段が受け付けたコメントを前記コンテンツに付加するコメント付加手段を備えること、
を特徴とするコンテンツ出力システム。
The content output system according to any one of claims 1 to 6,
The content output device includes comment receiving means for receiving a comment regarding the image,
The content output device comprises comment adding means for adding a comment received by the comment receiving means to the content;
Content output system characterized by
請求項1から請求項7までのいずれかに記載のコンテンツ出力システムにおいて、
前記コンテンツ出力装置の前記コンテンツ出力手段は、コンテンツを表示するコンテンツ表示装置に対して、前記コンテンツを出力すること、
を特徴とするコンテンツ出力システム。
In the content output system in any one of Claim 1- Claim 7,
The content output means of the content output device outputs the content to a content display device that displays the content;
Content output system characterized by
請求項8に記載のコンテンツ出力システムにおいて、
前記撮影装置は、特定の空間に設けられ、
前記コンテンツ表示装置は、前記特定の空間に関連した場所に設けられ、
前記画像には、撮影位置が対応付けられており、
前記コンテンツ出力装置は、前記撮影位置を含む地図と、前記画像とを含む前記コンテンツを生成するコンテンツ生成手段を備えること、
を特徴とするコンテンツ出力システム。
The content output system according to claim 8, wherein
The imaging device is provided in a specific space,
The content display device is provided at a location related to the specific space,
The image is associated with a shooting position,
The content output device comprises content generation means for generating the content including the map including the shooting position and the image;
Content output system characterized by
視野内を撮影する撮像手段と、
前記撮像手段により撮影された画像を送信する送信手段と、
を有する撮影装置に対して通信可能に接続されたコンテンツ出力装置であって、
前記撮影装置により撮影された前記画像を解析して、解析結果に応じて出力するコンテンツを判別する画像判別手段と、
前記画像判別手段により判別されたコンテンツを出力するコンテンツ出力手段と、
を備えること、
を特徴とするコンテンツ出力装置。
Imaging means for photographing the field of view;
Transmitting means for transmitting an image photographed by the imaging means;
A content output device communicably connected to a photographing device having
Image discriminating means for analyzing the image photographed by the photographing device and discriminating content to be output according to the analysis result;
Content output means for outputting the content determined by the image determination means;
Providing
A content output device characterized by the above.
請求項1から請求項9までのいずれかに記載のコンテンツ出力システムの前記コンテンツ出力装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the content output device of the content output system according to any one of claims 1 to 9.
JP2018063592A 2018-03-29 2018-03-29 Content output system, content output device and program Active JP7102856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018063592A JP7102856B2 (en) 2018-03-29 2018-03-29 Content output system, content output device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018063592A JP7102856B2 (en) 2018-03-29 2018-03-29 Content output system, content output device and program

Publications (2)

Publication Number Publication Date
JP2019176365A true JP2019176365A (en) 2019-10-10
JP7102856B2 JP7102856B2 (en) 2022-07-20

Family

ID=68169806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018063592A Active JP7102856B2 (en) 2018-03-29 2018-03-29 Content output system, content output device and program

Country Status (1)

Country Link
JP (1) JP7102856B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021181519A1 (en) * 2020-03-10 2021-09-16 日本電気株式会社 Photographing control device, system, method, and non-transitory computer readable medium storing program thereon

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004529356A (en) * 2001-05-14 2004-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Exhibition event attendee support method and apparatus using image-based crowd analysis
JP2005310017A (en) * 2004-04-26 2005-11-04 Hitachi Ltd Display system and distribution method
JP2006079457A (en) * 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd Electronic album display system, electronic album display method, electronic album display program, image classification device, image classification method and image classification program
JP2010268186A (en) * 2009-05-14 2010-11-25 Panasonic Corp Monitoring image display device
JP2015064513A (en) * 2013-09-26 2015-04-09 カシオ計算機株式会社 Display device, content display method, and program
JP2017098879A (en) * 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004529356A (en) * 2001-05-14 2004-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Exhibition event attendee support method and apparatus using image-based crowd analysis
JP2005310017A (en) * 2004-04-26 2005-11-04 Hitachi Ltd Display system and distribution method
JP2006079457A (en) * 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd Electronic album display system, electronic album display method, electronic album display program, image classification device, image classification method and image classification program
JP2010268186A (en) * 2009-05-14 2010-11-25 Panasonic Corp Monitoring image display device
JP2015064513A (en) * 2013-09-26 2015-04-09 カシオ計算機株式会社 Display device, content display method, and program
JP2017098879A (en) * 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021181519A1 (en) * 2020-03-10 2021-09-16 日本電気株式会社 Photographing control device, system, method, and non-transitory computer readable medium storing program thereon
JPWO2021181519A1 (en) * 2020-03-10 2021-09-16
JP7494899B2 (en) 2020-03-10 2024-06-04 日本電気株式会社 Imaging control device, system, method and program

Also Published As

Publication number Publication date
JP7102856B2 (en) 2022-07-20

Similar Documents

Publication Publication Date Title
CN110209952B (en) Information recommendation method, device, equipment and storage medium
US20190320056A1 (en) Intuitive computing methods and systems
US8577087B2 (en) Adjusting a consumer experience based on a 3D captured image stream of a consumer response
CN113420247A (en) Page display method and device, electronic equipment, storage medium and program product
KR101643915B1 (en) Construction system for big data reflect regional characteristics tailored ads
JP6120467B1 (en) Server device, terminal device, information processing method, and program
JP6478286B2 (en) Method, apparatus, and system for screening augmented reality content
US9607094B2 (en) Information communication method and information communication apparatus
KR101607617B1 (en) System of providing real-time moving picture for tourist attraction
CN111699478A (en) Image retrieval device, image retrieval method, electronic apparatus, and control method thereof
KR20140027011A (en) Method and server for recommending friends, and terminal thereof
US20230360098A1 (en) Methods and systems for providing information about a location with image analysis
JP7102856B2 (en) Content output system, content output device and program
JP2017228278A (en) Server device, terminal device, information processing method, and program
CN108573056B (en) Content data processing method and device, electronic equipment and storage medium
WO2021103727A1 (en) Data processing method, device, and storage medium
JP6204957B2 (en) Information processing apparatus, information processing method, and information processing program
JP2014042170A (en) Photographing system, photographing support method, photographing device and control method of the same, management device and control method of the same, and program
US11659273B2 (en) Information processing apparatus, information processing method, and non-transitory storage medium
KR20200132201A (en) Method and system for inducing to participate in the event
US11828616B2 (en) Search system, search method, and recording medium for recording search program
US20230088964A1 (en) Information processing apparatus, information processing method, and non-transitory storage medium
US20230394830A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium
JP2024074728A (en) Information processing device, program, and information processing method
JP2022067121A (en) Visit information provision system, visit information provision method, and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R150 Certificate of patent or registration of utility model

Ref document number: 7102856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150