JP2019176365A - Content output system, content output apparatus, and program - Google Patents
Content output system, content output apparatus, and program Download PDFInfo
- Publication number
- JP2019176365A JP2019176365A JP2018063592A JP2018063592A JP2019176365A JP 2019176365 A JP2019176365 A JP 2019176365A JP 2018063592 A JP2018063592 A JP 2018063592A JP 2018063592 A JP2018063592 A JP 2018063592A JP 2019176365 A JP2019176365 A JP 2019176365A
- Authority
- JP
- Japan
- Prior art keywords
- content
- image
- content output
- output system
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、コンテンツ出力システム、コンテンツ出力装置及びプログラムに関する。 The present invention relates to a content output system, a content output device, and a program.
昨今、例えば、街中や駅構内における広告では、デジタルサイネージ等によるデジタル画像や映像を用いたものが主流になってきている。しかし、デジタルサイネージに表示する広告は、例えば、テレビのCM等と変わらない内容であったりすることが多く、通行人の関心を惹きつける要素が少なかった。
他方、SNSサービスに投稿された写真を印刷し、印刷された写真をサイネージに表示する技術が開示されている(例えば、特許文献1)。
In recent years, for example, in the advertisements in the streets and stations, those using digital images and videos by digital signage or the like have become mainstream. However, advertisements displayed on digital signage often have the same content as TV commercials, for example, and there are few elements that attract the attention of passersby.
On the other hand, a technique for printing a photograph posted to the SNS service and displaying the printed photograph on a signage is disclosed (for example, Patent Document 1).
特許文献1に記載のものは、イベント会場や店舗等に設置したサイネージ装置に、SNSサービスに投稿され、それが印刷された写真を表示することで、来場者や来店者にプリンタの設置を知らせるためのものである。
このように、イベント会場や店舗等において、来場者や来店者等のユーザに有用な情報を提供すれば、ユーザの関心を惹きつけるものになり得る。
The one described in Patent Document 1 notifies a visitor or a visitor to the installation of a printer by displaying a photograph posted on an SNS service and printed on a signage device installed at an event venue or a store. Is for.
Thus, providing useful information to users such as visitors and visitors at event venues and stores can attract the interest of users.
そこで、本発明は、ユーザに有用な情報を提供し得るコンテンツ出力システム、コンテンツ出力装置及びプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a content output system, a content output device, and a program that can provide useful information to a user.
本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、視野内を撮影する撮像手段と、前記撮像手段により撮影された画像を送信する送信手段と、を有する撮影装置と、前記撮影装置により撮影された前記画像を含むコンテンツを受信して出力するコンテンツ出力装置と、を備えたコンテンツ出力システムであって、前記コンテンツ出力装置は、前記撮影装置により撮影された前記画像を解析して、解析結果に応じて出力するコンテンツを判別する画像判別手段と、前記画像判別手段により判別された前記コンテンツを出力するコンテンツ出力手段と、を備えること、を特徴とするコンテンツ出力システムである。
第2の発明は、第1の発明のコンテンツ出力システムにおいて、前記撮影装置は、音声を含む動画像を、前記画像として取得し、前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して画像認識処理及び音声認識処理のうち少なくとも一方を行って、混雑度合いに応じて出力するコンテンツを判別すること、を特徴とするコンテンツ出力システムである。
第3の発明は、第1の発明又は第2の発明のコンテンツ出力システムにおいて、前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して画像認識処理を行って、顔画像を含むか否かを判別し、前記コンテンツ出力装置は、前記画像に顔画像を含むと判別した場合には、前記顔画像の領域に対して画像処理を行って、画像処理後の画像を含む前記コンテンツを生成するコンテンツ加工手段を備えること、を特徴とするコンテンツ出力システムである。
第4の発明は、第1の発明から第3の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置の前記画像判別手段は、異なる位置を撮影する複数の前記撮影装置により撮影された画像を各々含む複数のコンテンツから1以上の前記コンテンツを判別すること、を特徴とするコンテンツ出力システムである。
第5の発明は、第1の発明から第4の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置は、前記画像に関するタグを付与するタグ付与手段と、前記タグ付与手段により付与された前記タグに基づいて、前記画像に対して優先順位を付与する順位付与手段と、を備え、前記コンテンツ出力装置の前記コンテンツ出力手段は、さらに、前記順位付与手段により付与された優先順位に基づいて、前記コンテンツを出力すること、を特徴とするコンテンツ出力システムである。
第6の発明は、第5の発明のコンテンツ出力システムにおいて、前記コンテンツ出力装置は、前記コンテンツ出力装置に表示された前記コンテンツに対する評価を受け付ける評価受付手段を備え、前記コンテンツ出力装置の前記順位付与手段は、前記評価受付手段が受け付けた評価に基づいて、前記画像に対して優先順位を付与すること、を特徴とするコンテンツ出力システムである。
第7の発明は、第1の発明から第6の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置は、前記画像に関するコメントを受け付けるコメント受付手段を備え、前記コンテンツ出力装置は、前記コメント受付手段が受け付けたコメントを前記コンテンツに付加するコメント付加手段を備えること、を特徴とするコンテンツ出力システムである。
第8の発明は、第1の発明から第7の発明までのいずれかのコンテンツ出力システムにおいて、前記コンテンツ出力装置の前記コンテンツ出力手段は、コンテンツを表示するコンテンツ表示装置に対して、前記コンテンツを出力すること、を特徴とするコンテンツ出力システムである。
第9の発明は、第8の発明のコンテンツ出力システムにおいて、前記撮影装置は、特定の空間に設けられ、前記コンテンツ表示装置は、前記特定の空間に関連した場所に設けられ、前記画像には、撮影位置が対応付けられており、前記コンテンツ出力装置は、前記撮影位置を含む地図と、前記画像とを含む前記コンテンツを生成するコンテンツ生成手段を備えること、を特徴とするコンテンツ出力システムである。
第10の発明は、視野内を撮影する撮像手段と、前記撮像手段により撮影された画像を送信する送信手段と、を有する撮影装置に対して通信可能に接続されたコンテンツ出力装置であって、前記撮影装置により撮影された前記画像を解析して、解析結果に応じて出力するコンテンツを判別する画像判別手段と、前記画像判別手段により判別されたコンテンツを出力するコンテンツ出力手段と、を備えること、を特徴とするコンテンツ出力装置である。
第11の発明は、第1の発明から第9の発明までのいずれかのコンテンツ出力システムの前記コンテンツ出力装置としてコンピュータを機能させるためのプログラムである。
The present invention solves the above problems by the following means.
1st invention receives the content containing the said image image | photographed by the imaging device which has the imaging means which image | photographs the inside of a visual field, and the transmission means which transmits the image image | photographed by the said imaging device, and the said imaging device. The content output system comprises: a content output device that outputs the content, wherein the content output device analyzes the image photographed by the photographing device and determines the content to be outputted according to the analysis result A content output system comprising: an image determination unit; and a content output unit that outputs the content determined by the image determination unit.
In a content output system according to a second aspect of the present invention, in the content output system of the first aspect, the photographing device acquires a moving image including sound as the image, and the image determination means of the content output device A content output system characterized in that at least one of image recognition processing and voice recognition processing is performed to determine content to be output according to the degree of congestion.
According to a third aspect of the present invention, in the content output system of the first or second aspect, the image discrimination means of the content output device performs an image recognition process on the image and includes a face image. When the content output apparatus determines that the image includes a face image, the content output device performs image processing on the face image region and generates the content including the image processed image. It is a content output system characterized by including the content processing means to perform.
According to a fourth aspect of the present invention, in the content output system according to any one of the first to third aspects, the image determination unit of the content output device is photographed by the plurality of photographing devices that photograph different positions. A content output system characterized by discriminating one or more contents from a plurality of contents each including an image.
According to a fifth aspect of the present invention, in the content output system according to any one of the first to fourth aspects, the content output device is provided by a tag attaching unit that attaches a tag related to the image, and the tag attaching unit. Ranking granting means for giving priority to the image based on the tag, and the content output means of the content output device is further based on the priority given by the ranking granting means. The content output system is characterized in that the content is output.
A sixth invention is the content output system of the fifth invention, wherein the content output device comprises an evaluation receiving means for receiving an evaluation on the content displayed on the content output device, and the ranking of the content output device The means is a content output system characterized in that a priority is assigned to the image based on the evaluation received by the evaluation receiving means.
According to a seventh aspect of the present invention, in the content output system according to any one of the first to sixth aspects of the invention, the content output device includes comment accepting means for accepting a comment regarding the image. A content output system comprising comment adding means for adding a comment received by a comment receiving means to the content.
An eighth invention is the content output system according to any one of the first to seventh inventions, wherein the content output means of the content output device outputs the content to a content display device that displays the content. The content output system is characterized by outputting.
A ninth invention is the content output system of the eighth invention, wherein the photographing device is provided in a specific space, the content display device is provided in a place related to the specific space, The content output system is associated with a shooting position, and the content output device includes content generation means for generating the content including a map including the shooting position and the image. .
A tenth aspect of the present invention is a content output device that is communicably connected to an imaging device that includes an imaging unit that captures an image within a field of view and a transmission unit that transmits an image captured by the imaging unit. An image discriminating unit for analyzing the image photographed by the photographing device and discriminating content to be output according to the analysis result; and a content output unit for outputting the content discriminated by the image discriminating unit. The content output apparatus characterized by the above.
An eleventh invention is a program for causing a computer to function as the content output device of any of the content output systems from the first invention to the ninth invention.
本発明によれば、ユーザに有用な情報を提供し得るコンテンツ出力システム、コンテンツ出力装置及びプログラムを提供することができる。 According to the present invention, it is possible to provide a content output system, a content output device, and a program that can provide useful information to a user.
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(第1実施形態)
<コンテンツ出力システム100>
図1は、第1実施形態に係るコンテンツ出力システム100の全体概要図である。
図2は、第1実施形態に係るコンテンツ処理サーバ1の機能ブロック図である。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
(First embodiment)
<
FIG. 1 is an overall schematic diagram of a
FIG. 2 is a functional block diagram of the content processing server 1 according to the first embodiment.
図1に示すコンテンツ出力システム100は、例えば、大勢の人が集うような場所であるショッピングモールや、イベント会場の入口等、その場所に関連する位置にあり、人が通る際に目に付く場所に、表示装置4(コンテンツ表示装置、コンテンツ出力装置)を設置する。そして、コンテンツ出力システム100は、ショッピングモールやイベント会場等の内部の様子を、カメラ5を使用して撮影し、撮影した画像を含むコンテンツを表示装置4に表示させるシステムである。
以降の説明において、例えば、ショッピングモールや、イベント会場といった、人が集まる場所であって、このコンテンツ出力システム100の利用を想定する場所を、特定空間9という。
図1に示す例では、特定空間9は、複数の展示スペースを含むイベント会場である。
The
In the following description, for example, a place where people gather, such as a shopping mall or an event venue, where the use of the
In the example shown in FIG. 1, the specific space 9 is an event venue including a plurality of exhibition spaces.
図1及び図2に示すコンテンツ出力システム100は、コンテンツ処理サーバ1(コンテンツ出力装置)と、1台の表示装置4と、複数台のカメラ5(撮影装置)とを備える。コンテンツ処理サーバ1と、表示装置4と、カメラ5とは、通信ネットワークNを介して通信可能に接続されている。通信ネットワークNは、例えば、インターネット回線等である。また、通信ネットワークNは、例えば、Bluetooth(登録商標)規格に基づく短距離無線通信等を用いるものであってもよい。
なお、表示装置4は、1台に限らず、複数台設置してもよいし、カメラ5は、1台以上あればよく、いずれも数に制限はない。
A
Note that the number of
<コンテンツ処理サーバ1>
コンテンツ処理サーバ1は、表示装置4に表示させるコンテンツに関する処理を行う。コンテンツ処理サーバ1は、カメラ5から取得した画像を判別し、判別結果に応じて、表示装置4に出力するコンテンツを生成して、表示装置4に送信する。
コンテンツ処理サーバ1は、例えば、サーバである。コンテンツ処理サーバ1は、その他、パーソナルコンピュータ(PC)等であってもよい。
コンテンツ処理サーバ1は、制御部10と、記憶部30と、通信インタフェース部39とを備える。
<Content processing server 1>
The content processing server 1 performs processing related to content to be displayed on the
The content processing server 1 is, for example, a server. In addition, the content processing server 1 may be a personal computer (PC) or the like.
The content processing server 1 includes a control unit 10, a storage unit 30, and a communication interface unit 39.
制御部10は、コンテンツ処理サーバ1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部30に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、画像取得部11と、画像判別部13(画像判別手段)と、地図生成部16(地図生成手段)と、コンテンツ生成部17(コンテンツ加工手段、コンテンツ生成手段)と、コンテンツ送信部18(コンテンツ出力手段)とを備える。
The control unit 10 is a central processing unit (CPU) that controls the entire content processing server 1. The control unit 10 executes various functions in cooperation with the hardware described above by appropriately reading and executing an operating system (OS) and application programs stored in the storage unit 30.
The control unit 10 includes an image acquisition unit 11, an image determination unit 13 (image determination unit), a map generation unit 16 (map generation unit), a content generation unit 17 (content processing unit, content generation unit), and content transmission. Unit 18 (content output means).
画像取得部11は、特定空間9を撮影する複数台のカメラ5により撮影された画像を、カメラ5から取得する。ここで、画像取得部11は、カメラ5から画像(コンテンツ)を直接受信してもよい。また、画像取得部11は、カメラ5により撮影された画像を含むコンテンツを、他の装置(図示せず)から受信してもよい。
画像判別部13は、画像取得部11によって取得した画像を解析して、解析結果に応じて出力するコンテンツを判別する。例えば、画像判別部13は、画像取得部11によって取得した画像に対して、画像認識処理を行って、人の混雑度合いに応じて出力するコンテンツを判別する。例えば、画像判別部13は、画像の混雑度合いが閾値以上である場合に、その画像を含むコンテンツを出力するコンテンツとして判別しもよい。また、画像判別部13は、混雑度合いが閾値以上である画像が複数ある場合には、複数の画像の各々を含む複数のコンテンツを、出力するコンテンツとして判別し、時間の経過と共に切り替えて表示させるようにしてもよい。
The image acquisition unit 11 acquires images captured by a plurality of
The
画像認識処理の一例として、画像判別部13は、公知の手法により、画像に含まれる顔画像や、人を検出して、その数によって混雑度合いを判別してもよい。また、画像判別部13は、単に通りすがりの人を除外するために、検出した人等が立ち止まっている場合や、単位時間に対する移動距離が短い場合、つまり、人の動くスピードがゆっくりである場合に、その数をカウントして混雑度合いを判別してもよい。
As an example of the image recognition processing, the
ここで、人検出の手法としては、例えば、HOG特徴量を用いるものがある。HOG特徴量を用いた人検出に関しては、「N.Dalal and B.Triggs.Histograms of Oriented Gradients for Human Detection.In CVPR,pages886−893,2005」に記載されている。 Here, as a human detection method, for example, there is a method using an HOG feature amount. Human detection using HOG features is described in “N. Dalal and B. Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886-893, 2005”.
また、顔検出の手法としては、例えば、Haar−like特徴を用いるものがある。Haar−like特徴を用いた顔検出に関しては、「P.Viola and M.J.Jones:“Rapid Object Detection Using a Boosted Cascade of Simple Features”,Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,pp.511−518,(2001).」に記載されている。 As a face detection method, for example, there is a method using a Haar-like feature. For face detection using the Haar-like feature, see “P. Viola and MJ Jones:“ Rapid Object Detection Using the Coordinated the Coordinates of the Future ”, Proceedings of the Effort. , Pp. 511-518, (2001).
地図生成部16は、コンテンツに含む画像を取得したカメラ5の撮影位置を含む、特定空間9の地図を生成する。具体的には、地図生成部16は、例えば、地図記憶部32に記憶された特定空間9の地図に、カメラ位置記憶部33に記憶された該当のカメラ5の位置を反映させる。
生成した地図は、表示装置4の設置位置と、特定空間9の位置とを考慮したものが望ましい。通行人は、表示装置4に対面する位置から表示装置4を見る。よって、地図生成部16は、表示装置4の上側が特定空間9の奥方向になり、表示装置4の下側が特定空間9の手前方向になるように地図を生成するのが望ましい。
The
The generated map is preferably in consideration of the installation position of the
コンテンツ生成部17は、画像に顔画像を含む場合に、コンテンツの顔画像の領域に対して画像処理による加工を行ってもよい。顔画像の領域に対する画像処理とは、顔や人物を特定できないようにするものであり、例えば、モザイクやぼかしを入れたり、予め用意したキャラクタ等の画像を合成したりする処理である。
そして、コンテンツ生成部17は、コンテンツに対して生成した地図を含んだ新たなコンテンツを生成する。
コンテンツ送信部18は、コンテンツ生成部17により生成されたコンテンツを、表示装置4に対して送信する。
When the image includes a face image, the content generation unit 17 may perform processing by image processing on the face image area of the content. The image processing for the face image area is a process for making it impossible to specify a face or a person, for example, a process of adding mosaic or blurring, or synthesizing an image of a character prepared in advance.
And the content production | generation part 17 produces | generates the new content containing the map produced | generated with respect to the content.
The
記憶部30は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
記憶部30は、プログラム記憶部31と、地図記憶部32と、カメラ位置記憶部33とを備える。
プログラム記憶部31は、各種のプログラムを記憶する記憶領域である。プログラム記憶部31は、コンテンツ処理プログラム31aを記憶している。コンテンツ処理プログラム31aは、コンテンツ処理サーバ1の制御部10が実行する各種機能を行うためのプログラムである。
The storage unit 30 is a storage area such as a hard disk or a semiconductor memory element for storing programs, data, and the like necessary for the control unit 10 to execute various processes.
The storage unit 30 includes a program storage unit 31, a
The program storage unit 31 is a storage area for storing various programs. The program storage unit 31 stores a
地図記憶部32は、特定空間9の地図を記憶する記憶領域である。
カメラ位置記憶部33は、特定空間9に設置したカメラ5の位置を記憶する記憶領域である。
通信インタフェース部39は、通信ネットワークNを介して表示装置4及びカメラ5との間の通信を行うためのインタフェースである。
The
The camera position storage unit 33 is a storage area that stores the position of the
The communication interface unit 39 is an interface for performing communication between the
ここで、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、コンテンツ処理サーバ1は、制御部10、記憶部30等を備えた情報処理装置であり、コンピュータの概念に含まれる。 Here, the computer refers to an information processing device including a control unit, a storage device, and the like, and the content processing server 1 is an information processing device including the control unit 10, the storage unit 30 and the like, and is included in the concept of a computer. It is.
<表示装置4>
図1に示す表示装置4は、例えば、縦が1.5〜2m程度で、横幅が1〜1.5m程度の液晶ディスプレイ等のモニタ(デジタルサイネージ)を有する装置である。上述したように、表示装置4は、例えば、特定空間9の入口付近に設置する。そして、表示装置4は、コンテンツ処理サーバ1から受信した特定空間9の画像を含むコンテンツを表示する。
<
The
<カメラ5>
カメラ5は、特定空間9に設置され、特定空間9の内部を撮影する。
カメラ5は、視野内を撮影する撮像手段と、撮像手段により撮影された画像を送信する送信手段とを備える。
カメラ5は、例えば、監視カメラ等であってもよい。また、カメラ5は、動画像を撮影し続けるものであっても、所定の時間間隔で静止画を撮影するものであってもよい。以降の説明において、撮影した画像は、動画像であるものとして説明する。
<
The
The
The
<コンテンツ表示処理>
次に、表示装置4にコンテンツを表示させる処理について説明する。
図3は、第1実施形態に係るコンテンツ処理サーバ1のコンテンツ表示処理を示すフローチャートである。
図4は、第1実施形態に係る表示装置4での表示例を示す図である。
<Content display processing>
Next, processing for displaying content on the
FIG. 3 is a flowchart showing content display processing of the content processing server 1 according to the first embodiment.
FIG. 4 is a diagram illustrating a display example on the
図3のステップS(以下、単に「S」という。)10において、コンテンツ処理サーバ1の制御部10(画像取得部11)は、各カメラ5によって撮影された画像を、各カメラ5から取得する。画像取得部11は、カメラ5の電源が投入されている間は、常時、カメラ5から画像を取得してもよい。また、画像取得部11は、1分おき等の所定のタイミングで定期的に、カメラ5から画像を取得してもよい。
In step S (hereinafter simply referred to as “S”) 10 in FIG. 3, the control unit 10 (image acquisition unit 11) of the content processing server 1 acquires an image captured by each
S11において、制御部10(画像判別部13)は、取得した各画像に対して画像認識技術を用いた画像認識処理をすることで、各画像の混雑度合いを判別する。
S12において、制御部10は、判別結果として最も混雑度合いが高い画像を、出力するコンテンツとして特定する。
S13において、制御部10(コンテンツ生成部17)は、特定した画像から顔画像を抽出し、抽出した顔画像に対して加工処理を行う。この処理によって、加工処理後の画像を含むコンテンツは、人がいることは分かるが、人物を特定できないものになる。
In S <b> 11, the control unit 10 (image determination unit 13) determines the degree of congestion of each image by performing image recognition processing using an image recognition technique on each acquired image.
In S12, the control unit 10 specifies an image having the highest degree of congestion as a determination result as content to be output.
In S <b> 13, the control unit 10 (content generation unit 17) extracts a face image from the identified image, and performs a processing process on the extracted face image. By this processing, the content including the processed image can be understood that there is a person, but the person cannot be specified.
S14において、制御部10は、S12で特定した画像を撮影したカメラ5の位置を、カメラ位置記憶部33に基づいて取得する。
S15において、制御部10(地図生成部16)は、特定したカメラ5の位置を含む地図を生成する。制御部10は、地図記憶部32から、特定空間9の地図を抽出し、特定したカメラ5の位置を、抽出した地図に配置した地図を生成する。
In S <b> 14, the control unit 10 acquires the position of the
In S15, the control unit 10 (map generation unit 16) generates a map including the position of the identified
S16において、制御部10(コンテンツ生成部17)は、生成した地図と、加工処理後の画像とを含むコンテンツを生成する。
S17において、制御部10(コンテンツ送信部18)は、生成したコンテンツを表示装置4に送信する。その後、制御部10は、処理をS10に移し、取得した画像を用いてコンテンツを生成し、表示装置4に送信する処理を繰り返す。この繰り返し処理は、例えば、所定のタイミングで定期的に行う。
In S16, the control unit 10 (content generation unit 17) generates content including the generated map and the processed image.
In S <b> 17, the control unit 10 (content transmission unit 18) transmits the generated content to the
コンテンツ処理サーバ1の制御部10は、上述した処理を、カメラ5から画像を取得したことに応じて即時に行う。そして、制御部10は、即時処理によって生成されたコンテンツを、表示装置4に送信する。よって、表示装置4に表示されるコンテンツは、ほぼリアルタイムに特定空間9の状況を示す。
The control unit 10 of the content processing server 1 immediately performs the above-described processing in response to acquiring an image from the
図4は、特定空間9の入口に設置された表示装置4に、コンテンツ40が表示されている例を示す。
コンテンツ40は、大別して画像領域41と、地図領域42とから構成されている。
画像領域41には、最も混雑度合いが高い位置の画像であって、顔画像等に加工処理を施した画像を表示する。この例では、最も混雑度合いが高い位置のカメラ5は、展示スペースAに設置されている。この画像領域41に表示された画像は、展示スペースAの混雑度合いを、ほぼリアルタイムに反映している。
FIG. 4 shows an example in which the
The
In the
地図領域42には、画像領域41を撮影したカメラ5の位置42aを、地図に示した特定空間9の地図を表示する。地図領域42に示す地図は、特定空間9の入口を下側としたものであるため、表示装置4を見た通行人等を、特定空間9の位置42aによって示される展示スペースAに、間違えることなく向かわせることができる。
なお、図4に示すように、画像領域41に表示されている画像の撮影場所である「展示スペースA」を、名称領域43に表示させてもよい。例えば、カメラ位置記憶部33に記憶されたカメラ5の位置に、名称を対応付けて記憶しておけば、コンテンツ処理サーバ1は、名称領域43に名称を配置してコンテンツを生成できるため、コンテンツに、場所の名称を表示できる。
In the
As shown in FIG. 4, “exhibition space A” that is the shooting location of the image displayed in the
このように、第1実施形態のコンテンツ出力システム100によれば、以下のような効果がある。
(1)コンテンツ処理サーバ1は、カメラ5が撮影した画像から混雑度合いを判別して、混雑度合いが高い画像を含むコンテンツを、特定空間9の入口に設置された表示装置4に表示させる。よって、入口付近で表示装置4を見た通行人等は、画像によって賑わっている様子を見ることができ、画像の撮影場所の好奇心を掻き立てることができ、特定空間9に通行人を向かわせる動機づけになり得る。
(2)コンテンツ処理サーバ1は、複数のカメラ5から画像を取得し、取得した画像のうち、最も混雑度合いの高い画像を用いたコンテンツを出力する。よって、複数の場所のうち、通行人がより興味を持ちやすい画像を含むコンテンツを出力できる。
(3)コンテンツ処理サーバ1は、カメラ5から画像を取得したことに応じて、表示装置4にコンテンツを出力する。よって、表示装置4は、ほぼリアルタイムの画像を表示することができる。
Thus, according to the
(1) The content processing server 1 determines the degree of congestion from an image captured by the
(2) The content processing server 1 acquires images from a plurality of
(3) The content processing server 1 outputs content to the
(4)コンテンツ処理サーバ1は、取得した画像に対して顔画像がある場合には、顔画像の領域に対して画像処理を行う。よって、写り込んだ人の顔が特定できないように加工をしたものを、コンテンツとして表示装置4に表示できるため、プライバシーの保護の観点からも優れたものにできる。
(5)コンテンツ処理サーバ1は、コンテンツを構成する画像の撮影位置を、地図上に示し、画像と地図とを含むコンテンツを生成して、表示装置4に送信する。よって、表示装置4では、画像と地図とを含むコンテンツを表示でき、表示装置4を見た通行人が、画像が示す特定空間9の位置を把握しやすくできる。結果として、通行人を、画像が撮影された場所に誘導できる。
(4) When there is a face image for the acquired image, the content processing server 1 performs image processing on the area of the face image. Therefore, since it can display on the
(5) The content processing server 1 indicates the shooting positions of the images constituting the content on a map, generates content including the image and the map, and transmits the content to the
なお、第1実施形態によるコンテンツ出力システム100は、種々の変形が可能である。
Note that the
(1)混雑度合いの判別には、種々の方法が考えられる。例えば、カメラ5による撮影範囲にマイクを設置し、周囲の音(音声)を集音することで、音声認識処理によって混雑度合いを判別してもよい。また、音声認識処理と、画像認識処理との両方の処理によって、混雑度合いを判別してもよい。
(1) Various methods are conceivable for determining the degree of congestion. For example, the degree of congestion may be determined by voice recognition processing by installing a microphone in the shooting range of the
(2)混雑度合いを判別し、混雑度合いが高い画像を、出力するコンテンツとして判別するものに限定されない。第1実施形態に記載のように、混雑度合いが高い画像を、出力するコンテンツとして判別した場合には、コンテンツは、混んでいる状態を表すので、賑わっている様子を示すことものにできる。そのため、コンテンツを見た人を賑わいに参加させ、特定空間9がさらに盛り上がる動機づけになり得る。
逆に、混雑度合いが低い画像を、出力するコンテンツとして判別するものであってもよい。混雑度合いが低い画像を、出力するコンテンツとして判別することで、例えば、その画像がランチを提供する店舗である場合に、ランチ時間にコンテンツを見た人に、直ぐに入店できるという情報を与えることができ、来客させる動機づけになり得、また、集客に貢献し得る。
(2) The present invention is not limited to determining the degree of congestion and determining an image with a high degree of congestion as content to be output. As described in the first embodiment, when an image with a high degree of congestion is determined as the content to be output, the content represents a busy state, so that it can show a busy state. For this reason, people who have seen the content can be actively involved, and the specific space 9 can be further motivated.
Conversely, an image with a low degree of congestion may be determined as content to be output. By identifying an image with a low degree of congestion as the content to be output, for example, when the image is a store that provides lunch, give information that a person who viewed the content at lunch time can enter the store immediately Can be a motivation to attract customers and contribute to attracting customers.
(3)また、混雑度合いが閾値以上の画像が複数ある場合には、各画像を含むコンテンツを、時間の経過と共にコンテンツを切り替えて表示装置4に表示させてもよい。
さらに、混雑度合いが閾値以上の画像がない場合には、予め生成されて記憶部30に記憶されたコンテンツを、表示装置4に表示させてもよい。
(4)地図記憶部32とカメラ位置記憶部33とを用いて地図を生成するものに限られない。地図記憶部32に、各カメラ5の位置を含む地図を記憶しておけば、カメラ位置記憶部33を参照して地図を生成しなくても、地図記憶部32に記憶された該当のカメラ5の位置を含む地図を取得するようにしてもよい。
(3) When there are a plurality of images having a degree of congestion equal to or greater than a threshold value, the content including each image may be displayed on the
Furthermore, when there is no image whose degree of congestion is equal to or greater than the threshold value, the content generated in advance and stored in the storage unit 30 may be displayed on the
(4) It is not restricted to what produces | generates a map using the map memory |
(第2実施形態)
第2実施形態では、ユーザが所持するカメラで撮影した画像を含むコンテンツを、表示装置に表示させるものについて説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
(Second Embodiment)
In the second embodiment, a description will be given of what causes a display device to display content including an image taken by a camera owned by a user. In the following description, parts that perform the same functions as those in the first embodiment described above are given the same reference numerals or the same reference numerals at the end, and redundant descriptions are omitted as appropriate.
<コンテンツ出力システム200>
図5は、第2実施形態に係るコンテンツ出力システム200の全体概要図である。
図6は、第2実施形態に係るコンテンツ処理サーバ201及び表示装置204の機能ブロック図である。
<
FIG. 5 is an overall schematic diagram of a
FIG. 6 is a functional block diagram of the content processing server 201 and the
図5に示すコンテンツ出力システム200は、例えば、レストラン等の入口であって、人が通る際に目に付く場所に、表示装置204を設置する。表示装置204を設置する場所は、特定空間209の近くである。特定空間209は、人がその場所に関するコメントを、ソーシャルネットワーキングサービス(SNS)等を使って発信するような場所である。そして、コンテンツ出力システム200は、特定空間209にいるユーザP1が、特定空間209の中で自身の携帯端末207を用いて撮影した画像を投稿することで、画像を含むコンテンツを、表示装置204に表示させるシステムである。
以降において、特定空間209は、レストランの店内であるとして説明する。
The
Hereinafter, the
なお、図5では、1人のユーザP1が、携帯端末207を用いて投稿するものを例に説明するが、他のユーザも、自身の携帯端末207を用いて特定空間209の内部を撮影し、撮影した画像等をコンテンツ処理サーバ201に送信してもよい。また、ユーザP1は、店員等であってもよい。
Note that FIG. 5 illustrates an example in which one user P1 posts using the
図6に示すコンテンツ出力システム200は、コンテンツ処理サーバ201と、1台の表示装置204と、1台以上の携帯端末207とを備える。コンテンツ処理サーバ201と、表示装置204とは、通信ネットワークNを介して通信可能に接続されている。
携帯端末207は、基地局Bを介して通信ネットワークNに接続されている。基地局Bは、無線通信の基地局であって、携帯端末207がコンテンツ処理サーバ201との間で通信をするための中継を行う。基地局Bは、例えば、Wi−Fi等の無線LAN(Local Area Network)の基地局や、通信事業者の携帯端末通信網用の基地局である。そして、基地局Bは、例えば、特定空間209に設置され、特定空間209にある携帯端末207のみが通信可能である。
つまり、携帯端末207は、特定空間209でのみ、コンテンツ処理サーバ201と通信が可能である。
A
The
That is, the
<コンテンツ処理サーバ201>
コンテンツ処理サーバ201は、携帯端末207から画像を取得し、取得した画像を判別した結果に応じて、画像を含むコンテンツを生成して、表示装置204に送信する。
コンテンツ処理サーバ201は、制御部210と、記憶部230と、通信インタフェース部39とを備える。
制御部210は、画像取得部211と、コメント受付部212(コメント受付手段)と、画像判別部213(画像判別手段)と、タグ付与部214(タグ付与手段)と、順位付与部215(順位付与手段)と、コンテンツ生成部217(コメント付加手段)と、コンテンツ送信部18と、評価受付部220(評価受付手段)とを備える。
<Content processing server 201>
The content processing server 201 acquires an image from the
The content processing server 201 includes a control unit 210, a storage unit 230, and a communication interface unit 39.
The control unit 210 includes an
画像取得部211は、特定空間209の中でユーザP1が携帯端末207を操作して撮影した画像を、携帯端末207から受信することで取得する。画像取得部211は、基地局B及び通信ネットワークNを介して画像を取得する。
コメント受付部212は、ユーザP1が入力したコメントを、携帯端末207から受信することで受け付ける。コメントは、例えば、画像ついてのユーザP1の感想等である。
The
The
画像判別部213は、画像取得部211によって取得した画像を判別する。画像判別部213は、例えば、取得した画像に位置情報を含むメタ情報を有する場合には、位置情報が特定空間209の位置を示すものであるか否かを判別することで、取得した画像が特定空間209で撮影されたものであるか否かを判別してもよい。また、画像判別部213は、例えば、取得した画像に日時情報を含むメタ情報を有する場合には、日時情報が現在日時に近いものであるか否かを判別して、取得した画像が直近に撮影されたものであるか否かを判別してもよい。さらに、画像判別部213は、画像認識処理によって、被写体を判別してもよい。そして、画像判別部213は、上述の判別結果により、画像をコンテンツとして出力するか否かを判別する。
The
タグ付与部214は、画像に関するタグを付与する。タグ付与部214は、例えば、画像判別部213による判別結果を用いて、タグを付与してもよい。具体的には、タグ付与部214は、画像に含まれる被写体の内容を、タグとして付与してもよい。
タグ付与部214は、例えば、公知の説明文生成ソフトウェアである“DenseCap”を使用して、画像データに関する説明文を生成した上で、翻訳し、翻訳した説明文から単語を取得して、それをタグとしてタグ付けに用いてもよい。
また、タグ付与部214は、携帯端末207のユーザP1の属性を、タグとして付与してもよい。ユーザP1の属性とは、年齢、性別等であり、携帯端末207や、携帯端末207と通信可能なサーバ(図示せず)に記憶されたユーザP1の属性を用いてもよいし、ユーザP1に属性を入力させてもよい。また、図示しない特定空間209を撮影するカメラによってユーザP1を撮影し、ユーザP1の画像から属性を得てもよい。
The
The
Moreover, the
順位付与部215は、タグ付けがされた画像に対して優先順位を付与する。順位付与部215は、例えば、画像全体に占める特定空間209で提供される商品等の割合が高いものから順に、優先順位を付与してもよい。また、順位付与部215は、後述する評価受付部220が受け付けた評価に基づいて、優先順位を付与してもよい。さらに、順位付与部215は、コンテンツ処理サーバ201の管理者等が優先順位を入力することで、画像に優先順位を付与してもよい。
コンテンツ生成部217は、画像取得部211が取得した画像に、その画像に対するコメントを付加したコンテンツを生成する。
評価受付部220は、表示装置204に表示されたコンテンツに対する評価を受け付ける。
The
The
The
記憶部230は、プログラム記憶部231と、コンテンツ記憶部234とを備える。
プログラム記憶部231は、コンテンツ処理サーバ201の制御部210が実行する各種機能を行うためのプログラムであるコンテンツ処理プログラム231aを記憶している。
コンテンツ記憶部234は、画像取得部211が取得した画像及びその画像に対するコメントを含むコンテンツを記憶する。また、コンテンツ記憶部234は、コンテンツに対応付けて、優先順位や評価を記憶する。
The storage unit 230 includes a program storage unit 231 and a content storage unit 234.
The program storage unit 231 stores a content processing program 231a that is a program for performing various functions executed by the control unit 210 of the content processing server 201.
The content storage unit 234 stores content including an image acquired by the
<表示装置204>
表示装置204は、コンテンツ処理サーバ201から受信した特定空間209の画像を含むコンテンツを表示する装置である。
表示装置204は、制御部240と、記憶部245と、表示部246と、カメラ248と、通信部249とを備える。
制御部240は、表示装置204の全体を制御するCPUである。制御部240は、記憶部245に記憶されているOSやアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
記憶部245は、制御部240が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
<
The
The
The
The storage unit 245 is a storage area such as a hard disk or a semiconductor memory element for storing programs, data, and the like necessary for the
表示部246は、大型の液晶ディスプレイ等のモニタである。
カメラ248は、例えば、表示装置204の上側に設けられ、表示装置204の表示部246の対面にいる通行人P2を撮影する。また、カメラ248は、動画像を撮影し続ける。
通信部249は、通信ネットワークNを介してコンテンツ処理サーバ201との間の通信を行うためのインタフェースである。
なお、図6に示す例では、カメラ248は、表示装置204の一部に有するものであるが、カメラ248は、表示装置204と別体であってもよい。
The display unit 246 is a monitor such as a large liquid crystal display.
For example, the
The communication unit 249 is an interface for performing communication with the content processing server 201 via the communication network N.
In the example illustrated in FIG. 6, the
<携帯端末207>
携帯端末207は、ユーザP1が所持する、例えば、スマートフォンやタブレットに代表されるコンピュータの機能を併せ持った携帯型の装置である。携帯端末207は、その他、携帯電話機等でもよいし、PC等であってもよい。
携帯端末207は、図示しないが、制御部、記憶部、タッチパネルディスプレイ、カメラ(撮影装置)、通信インタフェース部等を備える。カメラは、視野内を撮影する撮像手段としての機能を有し、通信インタフェース部は、撮像手段により撮影された画像を送信する送信手段としての機能を有する。そして、ユーザP1が特定空間209で、携帯端末207を操作することで、携帯端末207は、特定空間209を撮影した画像を取得し、撮影した画像に対するコメントの入力を受け付け、画像及びコメントを、コンテンツ処理サーバ201に送信(投稿)する。
<
The
Although not shown, the
<コンテンツ生成処理>
次に、表示装置204に表示させるコンテンツを生成する処理について説明する。
図7は、第2実施形態に係るコンテンツ処理サーバ201のコンテンツ生成処理を示すフローチャートである。
図7のS210において、コンテンツ処理サーバ201の制御部210(画像取得部211、コメント受付部212)は、携帯端末207から画像(コンテンツ)及びコメントを受信する。
ここで、携帯端末207では、コンテンツ処理サーバ201にアクセスし、例えば、Webサイトから撮影した画像とコメントとを登録してもよい。また、携帯端末207では、コンテンツを送信するためのアプリケーションプログラム(以下、アプリともいう。)をインストール及び起動して、アプリの実行にしたがって画像及びコメントを入力してもよい。
<Content generation processing>
Next, processing for generating content to be displayed on the
FIG. 7 is a flowchart showing content generation processing of the content processing server 201 according to the second embodiment.
In S <b> 210 of FIG. 7, the control unit 210 (the
Here, the
S211において、制御部210(画像判別部213)は、取得した各画像を判別する。制御部210は、取得した画像が、特定空間209で撮影されたものであるか否かを、例えば、画像のメタ情報によって判別してもよい。また、制御部210は、画像に対して画像認識処理をすることで、画像に写り込んでいるものを抽出して、表示対象に適しているか否かを判別してもよい。より具体的には、例えば、料理が中心に写り込む画像であれば、制御部210は、表示対象に適していると判別し、料理が一切写り込んでいない画像であれば、制御部210は、表示対象に適していないと判別してもよい。
In S211, the control unit 210 (image determination unit 213) determines each acquired image. For example, the control unit 210 may determine whether the acquired image is taken in the
S212において、制御部210は、画像判別処理によって、画像を、表示装置204への表示対象にするか否かを判定する。例えば、特定空間209で撮影された画像ではないと判別されたり、表示対象に適していないと判別されたりした場合には、表示対象にしないと判定する。表示対象にする場合(S212:YES)には、制御部210は、処理をS213に移す。他方、表示対象にしない場合(S212:NO)には、制御部210は、本処理を終了する。
In step S <b> 212, the control unit 210 determines whether or not the image is to be displayed on the
S213において、制御部210(タグ付与部214)は、画像にタグ付けをする。タグは、例えば、画像認識処理結果から抽出した単語であってもよいし、その画像を撮影したユーザP1の属性であってもよい。
S214において、制御部210(順位付与部215)は、タグ付けされた画像が複数ある場合に、画像に順位付けをする。
S215において、制御部210(コンテンツ生成部217)は、画像を含むコンテンツにコメントを付加し、コンテンツ記憶部234に記憶させる。その後、制御部210は、本処理を終了する。
In S213, the control unit 210 (tag giving unit 214) tags the image. The tag may be, for example, a word extracted from the image recognition processing result, or may be an attribute of the user P1 who captured the image.
In S <b> 214, the control unit 210 (rank assignment unit 215) ranks the images when there are a plurality of tagged images.
In S215, the control unit 210 (content generation unit 217) adds a comment to the content including the image and stores the comment in the content storage unit 234. Thereafter, the control unit 210 ends this process.
<コンテンツ表示処理>
次に、表示装置204にコンテンツを表示させる処理について説明する。
図8は、第2実施形態に係るコンテンツ処理サーバ201のコンテンツ表示処理を示すフローチャートである。
図9は、第2実施形態に係る表示装置204での表示例を示す図である。
図10は、第2実施形態に係る表示装置204のコンテンツ評価受付処理を示すフローチャートである。
<Content display processing>
Next, processing for displaying content on the
FIG. 8 is a flowchart showing content display processing of the content processing server 201 according to the second embodiment.
FIG. 9 is a diagram illustrating a display example on the
FIG. 10 is a flowchart showing content evaluation acceptance processing of the
図8のS230において、コンテンツ処理サーバ1の制御部210(コンテンツ送信部18)は、コンテンツ記憶部234を参照し、優先順位に基づいてコンテンツを表示装置204に送信する。制御部210は、例えば、優先順位の高いコンテンツから順番にコンテンツを送信してもよい。また、制御部210は、例えば、優先順位の高いコンテンツを、優先順位の低いコンテンツよりも数多く表示装置204に送信してもよい。さらに、制御部210は、例えば、優先順位が高いコンテンツと、低いコンテンツとで、送信する日時や曜日等を変えてもよい。
In S230 of FIG. 8, the control unit 210 (content transmission unit 18) of the content processing server 1 refers to the content storage unit 234 and transmits the content to the
表示装置204には、図9に示すように、コンテンツ処理サーバ201から送信されたコンテンツ260が表示される。
コンテンツ260は、画像領域261と、コメント領域262とを含む。画像領域261の画像と、コメント領域262のコメントとは、ユーザP1が携帯端末207によって撮影及び入力されたものである。また、コンテンツ260は、コンテンツ260を見た通行人等が評価するための指示表示領域263と、評価結果表示領域264とを含む。
As shown in FIG. 9, the
The
通行人P2がコンテンツ260を見て、コンテンツ260に対する評価をする場合には、図9に示すように、通行人P2は、「いいね」を表すジェスチャーをする。表示装置204のカメラ248は、表示装置204を見て「いいね」を表すジェスチャーをする通行人P2を撮影する。
When the passerby P2 looks at the
ここで、表示装置204によるコンテンツ評価受付処理について、図10に基づき説明する。
図10のS250において、表示装置204の制御部240は、カメラ248で撮影した画像を、カメラ248から取得する。
S251において、制御部240は、取得した画像を解析する画像解析処理を行う。具体的には、制御部240は、画像に人物を含み、人物が所定のジェスチャー(この例では、「いいね」を表すジェスチャー)をしているか否かを判別する。
S252において、制御部240は、S251による判別結果として、評価対象画像であるか否かを判断する。評価対象画像である場合(S252:YES)には、制御部240は、処理をS253に移す。他方、評価対象画像ではない場合(S252:NO)には、制御部240は、処理をS254に移す。
Here, the content evaluation acceptance processing by the
In S250 of FIG. 10, the
In S251, the
In S252, the
S253において、制御部240は、評価をカウントして記憶部245に記憶し、さらに、カウントした評価をコンテンツに反映させる。
この処理によって、図9で出力しているコンテンツ260の評価結果表示領域264に表示された評価の数が、3から4に変わる。
S254において、制御部240は、表示するコンテンツが、次のコンテンツに変わったか否かを判断する。コンテンツが変わった場合(S254:YES)には、制御部240は、処理をS255に移す。他方、コンテンツが変わっていない場合(S254:NO)には、制御部240は、処理をS250に移し、本処理を繰り返す。
S255において、制御部240は、記憶部245に記憶された評価のカウント数を、評価結果として出力する。出力した評価結果は、コンテンツ処理サーバ201に送信される。その後、制御部240は、処理をS250に移し、本処理を繰り返す。
In S253, the
By this processing, the number of evaluations displayed in the evaluation
In S254, the
In step S255, the
図8の説明に戻り、S231において、制御部210(評価受付部220)は、コンテンツに対する評価を表示装置204から受け付けたか否かを判断する。具体的には、制御部210は、表示装置204が図10のS255において送信した、評価のカウント数を受信することで、コンテンツに対する評価を受け付ける。コンテンツに対する評価を受け付けた場合(S231:YES)には、制御部210は、処理をS232に移す。他方、コンテンツに対する評価を受け付けていない場合(S231:NO)には、制御部210は、本処理に留まる。
S232において、制御部210は、受け付けた評価を、コンテンツ記憶部234に反映させる。また、制御部210(順位付与部215)は、評価に基づいて、コンテンツの優先順位を付与する。その後、制御部210は、処理をS230に移し、コンテンツを表示装置204に送信する処理を繰り返す。
Returning to the description of FIG. 8, in step S <b> 231, the control unit 210 (evaluation receiving unit 220) determines whether or not an evaluation for content has been received from the
In S232, the control unit 210 reflects the received evaluation in the content storage unit 234. In addition, the control unit 210 (rank assignment unit 215) assigns a priority order of contents based on the evaluation. Thereafter, the control unit 210 moves the process to S230 and repeats the process of transmitting the content to the
このように、第2実施形態のコンテンツ出力システム200によれば、以下のような効果がある。
(1)コンテンツ処理サーバ201は、ユーザP1の携帯端末207で撮影した画像及びコメントを含むコンテンツを、撮影場所である特定空間209の近傍に設置された表示装置204に表示させる。コンテンツは、ユーザP1によって撮影された画像及びコメントを含むので、臨場感があり、共感ができ、しかも、オリジナリティのあるものになる。よって、表示装置204を見た通行人P2に、興味を示させるコンテンツを提供でき、例えば、特定空間209に入る動機づけになり得る。また、ユーザP1は、自身が撮影した画像及び自身が入力したコメントが表示装置204に表示されるので、投稿する楽しさを提供でき、投稿する動機づけになり得る。
Thus, according to the
(1) The content processing server 201 displays content including images and comments captured by the
(2)コンテンツ処理サーバ201は、画像に優先順位を付与して、優先順位に基づいてコンテンツを表示装置204に送信する。よって、優先順位の高いコンテンツを優先的に表示させることができる。
(3)コンテンツ処理サーバ201は、画像にタグを付与する。付与するタグは、画像の内容に関するものや、画像を撮影したユーザP1に関するものにできる。また、優先順位を、画像に付与されたタグに基づいて付与できる。よって、例えば、料理が大きく写った画像の優先順位を高くしたりできる。
(4)コンテンツ処理サーバ201は、通行人P2の評価に基づいて、優先順位を付与できる。よって、コンテンツを見た人の評価が高いコンテンツに、高い優先順位を付与でき、より優先的にコンテンツを表示させることができる。
(2) The content processing server 201 assigns priorities to the images, and transmits the content to the
(3) The content processing server 201 adds a tag to the image. The tag to be assigned can be related to the contents of the image or related to the user P1 who captured the image. Further, the priority order can be assigned based on the tag attached to the image. Therefore, for example, it is possible to increase the priority of an image in which a large dish is shown.
(4) The content processing server 201 can assign priorities based on the evaluation of the passerby P2. Therefore, a high priority can be given to the content that is highly evaluated by the person who viewed the content, and the content can be displayed more preferentially.
なお、第2実施形態によるコンテンツ出力システム200は、種々の変形が可能である。
Note that the
(1)携帯端末207が特定空間209にある場合に、基地局Bを介したコンテンツ処理サーバ201との通信を可能にすることで、携帯端末207から受信した画像が特定空間209で撮影された画像であるという判定を行うものを例に説明した。しかし、携帯端末207から受信した画像が特定空間209で撮影された画像であるという判定は、種々の方法が考えられる。例えば、携帯端末207の位置情報を取得し、取得した位置が特定空間209の位置であることを条件に、携帯端末207により特定空間209で撮影された画像であると判定してもよい。
(1) When the
(2)携帯端末207から取得した画像を判別して表示対象にするか否かを判断したが、加えて、コメントの内容についても表示対象にするかを判断してもよい。コメントに、例えば、別途有する禁止ワード等の不適格な内容を含む場合、禁止ワードを除外して表示対象にしてもよいし、コメントを表示対象にしなくてもよい。
(2) Although the image acquired from the
(3)表示装置204が、通行人P2の評価を受け付けて処理をするものを説明したが、カメラ248が撮影した画像を、コンテンツ処理サーバ201が受信して、コンテンツ処理サーバ201でコンテンツ評価受付処理を行ってもよい。
また、通行人P2の評価を、評価対象のジェスチャーを画像認識処理で判定することで受け付けたが、ジェスチャーに限定されない。例えば、表示装置204の方向を見ている時間と表情とによって、評価を算出してもよい。また、例えば、表示装置に操作部を設けて、通行人P2に操作をしてもらう等、他の方法で行われた評価を受け付けてもよい。
(3) Although the
Moreover, although evaluation of passerby P2 was received by determining the gesture of evaluation object by an image recognition process, it is not limited to a gesture. For example, the evaluation may be calculated based on the time and the expression when looking at the direction of the
(4)コンテンツ出力システム200は、ユーザP1が画像及びコメントを取得及び入力してコンテンツ処理サーバ201に送信するだけでも、ユーザP1に投稿する楽しみを与えることができるが、投稿したインセンティブとして、例えば、割引等をユーザP1に与えるようにしてもよい。そのようにすることで、ユーザP1が積極的に投稿する動機づけになり得る。
(4) The
(5)カメラ248は、取得した画像を用いて通行人P2の評価を得るものを説明したが、取得した画像から通行人P2の属性を取得し、属性に応じて表示装置204に表示させるコンテンツを変えるようにしてもよい。例えば、画像に関するタグと、通行人P2の属性とが一致又は類似するコンテンツを、表示装置204に表示させるようにしてもよい。そのようにすることで、より通行人P2が興味を持つコンテンツを表示させることができる。
(5) Although the
(6)特定空間209を、レストランの店内を例に説明したが、種々の場所で実現できる。例えば、衣類等の販売店であれば、販売している衣類を試着している画像とコメントとを含むコンテンツを生成して表示させてもよい。また、例えば、美容院等であれば、カット等をした後の髪型とコメントとを含むコンテンツを生成して表示させてもよい。
(6) Although the
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。 As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. In addition, the effects described in the embodiments are merely the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be used combining suitably, detailed description is abbreviate | omitted.
(変形形態)
(1)各実施形態では、表示装置は、通信ネットワークを介して接続されているものとして説明したが、これに限定されない。例えば、コンテンツ処理サーバと、ディスプレイとが一体になったコンテンツ出力装置であってもよい。
(2)各実施形態では、表示装置が、デジタルサイネージのようなものであって、特定空間の近傍に設けられたものを例に説明したが、これに限定されない。例えば、表示装置は、パーソナルコンピュータ(PC)やタブレット等であってもよい。
(3)各実施形態では、コンテンツの表示期限について、特に説明をしなかったが、コンテンツ生成日時を有し、古いコンテンツは表示対象にしないようにしてもよい。
(Deformation)
(1) In each embodiment, the display device is described as being connected via a communication network. However, the present invention is not limited to this. For example, a content output device in which a content processing server and a display are integrated may be used.
(2) In each embodiment, the display device is like a digital signage and is provided in the vicinity of the specific space. However, the present invention is not limited to this. For example, the display device may be a personal computer (PC), a tablet, or the like.
(3) In each embodiment, the content display deadline has not been particularly described. However, the content generation date and time and old content may not be displayed.
1,201 コンテンツ処理サーバ
4,204 表示装置
5 カメラ
9,209 特定空間
10,210 制御部
11,211 画像取得部
13,213 画像判別部
16 地図生成部
17,217 コンテンツ生成部
18 コンテンツ送信部
30,230 記憶部
31a,231a コンテンツ処理プログラム
32 地図記憶部
100,200 コンテンツ出力システム
207 携帯端末
212 コメント受付部
214 タグ付与部
215 順位付与部
220 評価受付部
234 コンテンツ記憶部
246 表示部
248 カメラ
B 基地局
P1 ユーザ
P2 通行人
1,201 Content processing server 4,204
Claims (11)
前記撮影装置により撮影された前記画像を含むコンテンツを受信して出力するコンテンツ出力装置と、
を備えたコンテンツ出力システムであって、
前記コンテンツ出力装置は、
前記撮影装置により撮影された前記画像を解析して、解析結果に応じて出力するコンテンツを判別する画像判別手段と、
前記画像判別手段により判別された前記コンテンツを出力するコンテンツ出力手段と、
を備えること、
を特徴とするコンテンツ出力システム。 An imaging device having imaging means for imaging the field of view; and transmission means for transmitting an image taken by the imaging means;
A content output device that receives and outputs content including the image captured by the imaging device;
A content output system comprising:
The content output device includes:
Image discriminating means for analyzing the image photographed by the photographing device and discriminating content to be output according to the analysis result;
Content output means for outputting the content discriminated by the image discrimination means;
Providing
Content output system characterized by
前記撮影装置は、音声を含む動画像を、前記画像として取得し、
前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して画像認識処理及び音声認識処理のうち少なくとも一方を行って、混雑度合いに応じて出力するコンテンツを判別すること、
を特徴とするコンテンツ出力システム。 The content output system according to claim 1,
The photographing device acquires a moving image including sound as the image,
The image determination unit of the content output device performs at least one of an image recognition process and a voice recognition process on the image to determine a content to be output according to a degree of congestion;
Content output system characterized by
前記コンテンツ出力装置の前記画像判別手段は、前記画像に対して画像認識処理を行って、顔画像を含むか否かを判別し、
前記コンテンツ出力装置は、前記画像に顔画像を含むと判別した場合には、前記顔画像の領域に対して画像処理を行って、画像処理後の画像を含む前記コンテンツを生成するコンテンツ加工手段を備えること、
を特徴とするコンテンツ出力システム。 The content output system according to claim 1 or 2,
The image determination means of the content output device performs image recognition processing on the image to determine whether or not a face image is included;
If the content output device determines that the image includes a face image, the content output device performs image processing on the face image region, and generates content including the image after image processing. Preparing,
Content output system characterized by
前記コンテンツ出力装置の前記画像判別手段は、異なる位置を撮影する複数の前記撮影装置により撮影された画像を各々含む複数のコンテンツから1以上の前記コンテンツを判別すること、
を特徴とするコンテンツ出力システム。 In the content output system in any one of Claim 1- Claim 3,
The image discriminating means of the content output device discriminates one or more contents from a plurality of contents each including images taken by a plurality of the photographing devices that photograph different positions;
Content output system characterized by
前記コンテンツ出力装置は、
前記画像に関するタグを付与するタグ付与手段と、
前記タグ付与手段により付与された前記タグに基づいて、前記画像に対して優先順位を付与する順位付与手段と、
を備え、
前記コンテンツ出力装置の前記コンテンツ出力手段は、さらに、前記順位付与手段により付与された優先順位に基づいて、前記コンテンツを出力すること、
を特徴とするコンテンツ出力システム。 In the content output system in any one of Claim 1- Claim 4,
The content output device includes:
Tag giving means for giving a tag related to the image;
A rank giving means for giving a priority to the image based on the tag given by the tag giving means;
With
The content output means of the content output device further outputs the content based on the priority assigned by the order assigning means;
Content output system characterized by
前記コンテンツ出力装置は、前記コンテンツ出力装置に表示された前記コンテンツに対する評価を受け付ける評価受付手段を備え、
前記コンテンツ出力装置の前記順位付与手段は、前記評価受付手段が受け付けた評価に基づいて、前記画像に対して優先順位を付与すること、
を特徴とするコンテンツ出力システム。 The content output system according to claim 5, wherein
The content output device comprises an evaluation receiving means for receiving an evaluation on the content displayed on the content output device,
The rank assigning means of the content output device assigns a priority to the image based on the evaluation received by the evaluation receiving means;
Content output system characterized by
前記コンテンツ出力装置は、前記画像に関するコメントを受け付けるコメント受付手段を備え、
前記コンテンツ出力装置は、前記コメント受付手段が受け付けたコメントを前記コンテンツに付加するコメント付加手段を備えること、
を特徴とするコンテンツ出力システム。 The content output system according to any one of claims 1 to 6,
The content output device includes comment receiving means for receiving a comment regarding the image,
The content output device comprises comment adding means for adding a comment received by the comment receiving means to the content;
Content output system characterized by
前記コンテンツ出力装置の前記コンテンツ出力手段は、コンテンツを表示するコンテンツ表示装置に対して、前記コンテンツを出力すること、
を特徴とするコンテンツ出力システム。 In the content output system in any one of Claim 1- Claim 7,
The content output means of the content output device outputs the content to a content display device that displays the content;
Content output system characterized by
前記撮影装置は、特定の空間に設けられ、
前記コンテンツ表示装置は、前記特定の空間に関連した場所に設けられ、
前記画像には、撮影位置が対応付けられており、
前記コンテンツ出力装置は、前記撮影位置を含む地図と、前記画像とを含む前記コンテンツを生成するコンテンツ生成手段を備えること、
を特徴とするコンテンツ出力システム。 The content output system according to claim 8, wherein
The imaging device is provided in a specific space,
The content display device is provided at a location related to the specific space,
The image is associated with a shooting position,
The content output device comprises content generation means for generating the content including the map including the shooting position and the image;
Content output system characterized by
前記撮像手段により撮影された画像を送信する送信手段と、
を有する撮影装置に対して通信可能に接続されたコンテンツ出力装置であって、
前記撮影装置により撮影された前記画像を解析して、解析結果に応じて出力するコンテンツを判別する画像判別手段と、
前記画像判別手段により判別されたコンテンツを出力するコンテンツ出力手段と、
を備えること、
を特徴とするコンテンツ出力装置。 Imaging means for photographing the field of view;
Transmitting means for transmitting an image photographed by the imaging means;
A content output device communicably connected to a photographing device having
Image discriminating means for analyzing the image photographed by the photographing device and discriminating content to be output according to the analysis result;
Content output means for outputting the content determined by the image determination means;
Providing
A content output device characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018063592A JP7102856B2 (en) | 2018-03-29 | 2018-03-29 | Content output system, content output device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018063592A JP7102856B2 (en) | 2018-03-29 | 2018-03-29 | Content output system, content output device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019176365A true JP2019176365A (en) | 2019-10-10 |
JP7102856B2 JP7102856B2 (en) | 2022-07-20 |
Family
ID=68169806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018063592A Active JP7102856B2 (en) | 2018-03-29 | 2018-03-29 | Content output system, content output device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7102856B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021181519A1 (en) * | 2020-03-10 | 2021-09-16 | 日本電気株式会社 | Photographing control device, system, method, and non-transitory computer readable medium storing program thereon |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004529356A (en) * | 2001-05-14 | 2004-09-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Exhibition event attendee support method and apparatus using image-based crowd analysis |
JP2005310017A (en) * | 2004-04-26 | 2005-11-04 | Hitachi Ltd | Display system and distribution method |
JP2006079457A (en) * | 2004-09-10 | 2006-03-23 | Fuji Photo Film Co Ltd | Electronic album display system, electronic album display method, electronic album display program, image classification device, image classification method and image classification program |
JP2010268186A (en) * | 2009-05-14 | 2010-11-25 | Panasonic Corp | Monitoring image display device |
JP2015064513A (en) * | 2013-09-26 | 2015-04-09 | カシオ計算機株式会社 | Display device, content display method, and program |
JP2017098879A (en) * | 2015-11-27 | 2017-06-01 | パナソニックIpマネジメント株式会社 | Monitoring device, monitoring system and monitoring method |
-
2018
- 2018-03-29 JP JP2018063592A patent/JP7102856B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004529356A (en) * | 2001-05-14 | 2004-09-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Exhibition event attendee support method and apparatus using image-based crowd analysis |
JP2005310017A (en) * | 2004-04-26 | 2005-11-04 | Hitachi Ltd | Display system and distribution method |
JP2006079457A (en) * | 2004-09-10 | 2006-03-23 | Fuji Photo Film Co Ltd | Electronic album display system, electronic album display method, electronic album display program, image classification device, image classification method and image classification program |
JP2010268186A (en) * | 2009-05-14 | 2010-11-25 | Panasonic Corp | Monitoring image display device |
JP2015064513A (en) * | 2013-09-26 | 2015-04-09 | カシオ計算機株式会社 | Display device, content display method, and program |
JP2017098879A (en) * | 2015-11-27 | 2017-06-01 | パナソニックIpマネジメント株式会社 | Monitoring device, monitoring system and monitoring method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021181519A1 (en) * | 2020-03-10 | 2021-09-16 | 日本電気株式会社 | Photographing control device, system, method, and non-transitory computer readable medium storing program thereon |
JPWO2021181519A1 (en) * | 2020-03-10 | 2021-09-16 | ||
JP7494899B2 (en) | 2020-03-10 | 2024-06-04 | 日本電気株式会社 | Imaging control device, system, method and program |
Also Published As
Publication number | Publication date |
---|---|
JP7102856B2 (en) | 2022-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110209952B (en) | Information recommendation method, device, equipment and storage medium | |
US20190320056A1 (en) | Intuitive computing methods and systems | |
US8577087B2 (en) | Adjusting a consumer experience based on a 3D captured image stream of a consumer response | |
CN113420247A (en) | Page display method and device, electronic equipment, storage medium and program product | |
KR101643915B1 (en) | Construction system for big data reflect regional characteristics tailored ads | |
JP6120467B1 (en) | Server device, terminal device, information processing method, and program | |
JP6478286B2 (en) | Method, apparatus, and system for screening augmented reality content | |
US9607094B2 (en) | Information communication method and information communication apparatus | |
KR101607617B1 (en) | System of providing real-time moving picture for tourist attraction | |
CN111699478A (en) | Image retrieval device, image retrieval method, electronic apparatus, and control method thereof | |
KR20140027011A (en) | Method and server for recommending friends, and terminal thereof | |
US20230360098A1 (en) | Methods and systems for providing information about a location with image analysis | |
JP7102856B2 (en) | Content output system, content output device and program | |
JP2017228278A (en) | Server device, terminal device, information processing method, and program | |
CN108573056B (en) | Content data processing method and device, electronic equipment and storage medium | |
WO2021103727A1 (en) | Data processing method, device, and storage medium | |
JP6204957B2 (en) | Information processing apparatus, information processing method, and information processing program | |
JP2014042170A (en) | Photographing system, photographing support method, photographing device and control method of the same, management device and control method of the same, and program | |
US11659273B2 (en) | Information processing apparatus, information processing method, and non-transitory storage medium | |
KR20200132201A (en) | Method and system for inducing to participate in the event | |
US11828616B2 (en) | Search system, search method, and recording medium for recording search program | |
US20230088964A1 (en) | Information processing apparatus, information processing method, and non-transitory storage medium | |
US20230394830A1 (en) | Image processing apparatus, image processing method, and non-transitory storage medium | |
JP2024074728A (en) | Information processing device, program, and information processing method | |
JP2022067121A (en) | Visit information provision system, visit information provision method, and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7102856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |