JP2016178403A - Information output device, information output method, and program - Google Patents

Information output device, information output method, and program Download PDF

Info

Publication number
JP2016178403A
JP2016178403A JP2015055781A JP2015055781A JP2016178403A JP 2016178403 A JP2016178403 A JP 2016178403A JP 2015055781 A JP2015055781 A JP 2015055781A JP 2015055781 A JP2015055781 A JP 2015055781A JP 2016178403 A JP2016178403 A JP 2016178403A
Authority
JP
Japan
Prior art keywords
user
content
output
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015055781A
Other languages
Japanese (ja)
Inventor
千寿 外山
Chihiro Toyama
千寿 外山
俊彦 吉田
Toshihiko Yoshida
俊彦 吉田
山本 一人
Kazuto Yamamoto
一人 山本
和真 川原
Kazuma Kawahara
和真 川原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015055781A priority Critical patent/JP2016178403A/en
Publication of JP2016178403A publication Critical patent/JP2016178403A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the effect of a content.SOLUTION: When an IC card 4 is detected by a non-contact communication unit 33, a control unit 23 of a digital signage device 1 acquires a user ID from the IC card 4 to recognize a user. Subsequently, the control unit 23 controls an image formation unit 27 to display a selection screen of an advertisement content, and the image formation unit 27 and the like to output the advertisement content selected by an operation unit 32. On completion of the output of the advertisement content, the control unit 23 adds a content ID of the output content to an advertisement content viewing history of the user, and adds a point according to a viewing time. When the point is a predetermined point or more, the control unit 23 shifts to an English conversation learning service to control the image formation unit 27 to output information which relates to the advertisement content viewed by the user during the English conversation learning service.SELECTED DRAWING: Figure 4

Description

本発明は、情報出力装置、情報出力方法、及びプログラムに関する。   The present invention relates to an information output device, an information output method, and a program.

従来、広告コンテンツの視聴回数に応じてポイントを付与し、映画・ドラマ等を視聴可能にする技術が知られている(例えば、非特許文献1参照)。   2. Description of the Related Art Conventionally, a technique is known in which points are given according to the number of times an advertisement content is viewed and movies and dramas can be viewed (see, for example, Non-Patent Document 1).

MarkeZine編集部、“富士通ら3社、ネットTVで広告コンテンツを視聴するとポイントが付与される新システムを開発”、[Online]、平成20年11月14日、[平成27年1月23日検索]、インターネット〈http://markezine.jp/article/detail/5896〉MarkeZine editorial department, “Fujitsu and three other companies, develop a new system that gives points when viewing advertising content on Internet TV”, [Online], November 14, 2008, [January 23, 2015] ] Internet <http://markezine.jp/article/detail/5896>

しかしながら、非特許文献1に記載の技術においては、ポイントで視聴可能なコンテンツは視聴した広告コンテンツとは関係がないため、広告コンテンツの広告効果を向上させることはできない。   However, in the technique described in Non-Patent Document 1, content that can be viewed at points is not related to the viewed advertising content, and thus the advertising effect of the advertising content cannot be improved.

本発明の課題は、コンテンツの効果を向上させることである。   The subject of this invention is improving the effect of a content.

上記課題を解決するため、請求項1に記載の発明の情報出力装置は、
コンテンツを出力する出力手段と、
ユーザを認識するユーザ認識手段と、
前記ユーザ認識手段により認識されたユーザが視聴したコンテンツの情報を取得する取得手段と、
前記ユーザにコンテンツの出力とは異なるサービスを提供している間に、前記ユーザが視聴したコンテンツに関連する情報を前記出力手段により出力させる制御手段と、
を備える。
In order to solve the above-described problem, an information output device according to a first aspect of the present invention provides:
Output means for outputting content;
User recognition means for recognizing a user;
Obtaining means for obtaining information of content viewed by the user recognized by the user recognition means;
Control means for causing the output means to output information related to the content viewed by the user while providing the user with a service different from the content output;
Is provided.

本発明によれば、コンテンツの効果を向上させることができる。   According to the present invention, the effect of content can be improved.

本実施形態におけるコンテンツ出力システムの全体構成を示す図である。It is a figure which shows the whole structure of the content output system in this embodiment. 本実施形態におけるデジタルサイネージ装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the digital signage apparatus in this embodiment. 図2のスクリーン部の概略構成を示す図である。It is a figure which shows schematic structure of the screen part of FIG. 図2の制御部により実行されるコンテンツ出力処理を示すフローチャートである。It is a flowchart which shows the content output process performed by the control part of FIG. 図4のステップ12において実行される英会話学習サービス提供処理を示すフローチャートである。It is a flowchart which shows the English conversation learning service provision process performed in step 12 of FIG.

以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。以下の実施形態では、本発明に係る情報出力装置としてデジタルサイネージ装置1を適用した場合を例にとり説明する。なお、本発明は、図示例に限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, a case where the digital signage apparatus 1 is applied as an information output apparatus according to the present invention will be described as an example. The present invention is not limited to the illustrated example.

[コンテンツ出力システム100の構成]
図1は、本実施形態に係るコンテンツ出力システム100の概略構成を示す図である。コンテンツ出力システム100は、デジタルサイネージ装置1と、サーバ装置2と、教師用端末3と、が通信ネットワークNを介してデータ送受信可能に構成されている。図1においては、デジタルサイネージ装置1及び教師用端末3を1台ずつ図示しているが、デジタルサイネージ装置1及び教師用端末3の台数は、特に限定されない。また、通信ネットワークNは、特に限定されないが、本実施形態においては、インターネットにより構築されたネットワークとして説明する。
[Configuration of Content Output System 100]
FIG. 1 is a diagram showing a schematic configuration of a content output system 100 according to the present embodiment. The content output system 100 is configured such that data can be transmitted and received via the communication network N between the digital signage device 1, the server device 2, and the teacher terminal 3. In FIG. 1, one digital signage device 1 and one teacher terminal 3 are illustrated, but the number of digital signage devices 1 and teacher terminals 3 is not particularly limited. The communication network N is not particularly limited, but in the present embodiment, the communication network N will be described as a network constructed by the Internet.

[デジタルサイネージ装置1の構成]
図2は、デジタルサイネージ装置1の主制御構成を示すブロック図である。図3は、図2のスクリーン部22の概略構成を示す正面図である。デジタルサイネージ装置1は、店舗等に設置され、広告コンテンツを出力するとともに、広告コンテンツを所定時間以上視聴したユーザに英会話学習サービスを提供する装置である。
[Configuration of Digital Signage Device 1]
FIG. 2 is a block diagram showing a main control configuration of the digital signage apparatus 1. FIG. 3 is a front view showing a schematic configuration of the screen unit 22 of FIG. The digital signage apparatus 1 is an apparatus that is installed in a store or the like, outputs advertisement content, and provides an English conversation learning service to a user who has watched the advertisement content for a predetermined time or more.

図2に示すように、デジタルサイネージ装置1は、コンテンツの映像光を照射する投影部21と、投影部21から照射された映像光を背面で受けて前面に投影するスクリーン部22とを備えている。   As shown in FIG. 2, the digital signage apparatus 1 includes a projection unit 21 that irradiates content image light, and a screen unit 22 that receives the image light emitted from the projection unit 21 at the back and projects it onto the front. Yes.

まず、投影部21について説明する。
投影部21は、制御部23と、プロジェクタ24と、記憶部25と、通信部26と、計時部30と、を備えている。プロジェクタ24、記憶部25、通信部26、計時部30と、は、図2に示すように制御部23に接続されている。
First, the projection unit 21 will be described.
The projection unit 21 includes a control unit 23, a projector 24, a storage unit 25, a communication unit 26, and a timer unit 30. The projector 24, the storage unit 25, the communication unit 26, and the time measuring unit 30 are connected to the control unit 23 as shown in FIG.

制御部23は、記憶部25のプログラム記憶部251に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPU(Central Processing Unit)とプログラム実行時の作業領域となるメモリ(いずれも図示略)とを備えている。制御部23は、記憶部25のプログラム記憶部251に記憶されているプログラムとの協働により、取得手段、制御手段、検出手段として機能する。また、制御部23は、非接触通信部33との協働によりユーザ認識手段として機能する。   The control unit 23 includes a CPU (Central Processing Unit) that executes various programs stored in the program storage unit 251 of the storage unit 25 to perform predetermined calculations and control of each unit, and a memory that is a work area when the program is executed (Both not shown). The control unit 23 functions as an acquisition unit, a control unit, and a detection unit in cooperation with a program stored in the program storage unit 251 of the storage unit 25. Further, the control unit 23 functions as a user recognition unit in cooperation with the non-contact communication unit 33.

プロジェクタ24は、制御部23から出力された画像データを映像光に変換してスクリーン部22に向けて照射する投影装置である。プロジェクタ24は、例えば、アレイ状に配列された複数個(XGAの場合、横1024画素×縦768画素)の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することでその反射光により光像を形成する表示素子であるDMD(デジタルマイクロミラーデバイス)を利用したDLP(Digital Light Processing)(登録商標)プロジェクタが適用可能である。例えば、後述するように、画像形成部27の所定の領域(図3に示す投影用領域291a〜291b)のみに投影を行いたい場合には、投影用領域291a〜291bのそれぞれに対応する位置の微小ミラーをオンし、その他の領域をオフすることで、所定の領域のみを投影(表示)することが可能となる。   The projector 24 is a projection device that converts the image data output from the control unit 23 into image light and irradiates the image data toward the screen unit 22. For example, the projector 24 performs a display operation by individually turning on / off each tilt angle of a plurality of micromirrors arranged in an array (in the case of XGA, horizontal 1024 pixels × vertical 768 pixels) at high speed. A DLP (Digital Light Processing) (registered trademark) projector using a DMD (digital micromirror device), which is a display element that forms a light image with the reflected light, is applicable. For example, as described later, when it is desired to perform projection only on a predetermined area (projection areas 291a to 291b shown in FIG. 3) of the image forming unit 27, positions corresponding to the respective projection areas 291a to 291b. By turning on the micromirror and turning off the other areas, it is possible to project (display) only a predetermined area.

記憶部25は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部25には、図2に示すように、プログラム記憶部251が設けられている。プログラム記憶部251には、制御部23で実行されるシステムプログラムや後述するコンテンツ出力処理を始めとする各種処理を実行するための処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。   The storage unit 25 is configured by an HDD (Hard Disk Drive), a nonvolatile semiconductor memory, or the like. The storage unit 25 is provided with a program storage unit 251 as shown in FIG. The program storage unit 251 stores a system program executed by the control unit 23, a processing program for executing various processes including a content output process described later, data necessary for executing these programs, and the like. Yes.

また、記憶部25には、広告コンテンツ記憶部252、広告関連情報記憶部253が設けられている。   The storage unit 25 is provided with an advertisement content storage unit 252 and an advertisement related information storage unit 253.

広告コンテンツ記憶部252には、広告コンテンツのコンテンツデータが記憶されている。コンテンツデータは、複数のフレーム画像により構成される動画データ及び各フレーム画像に対応する音声データにより構成されている。本実施形態において、コンテンツデータのフレーム画像は、画像形成部27の投影用領域291aに商品名や商品の説明等が表示され、投影用領域291bに商品を説明する人物やキャラクタの顔画像が表示されるように構成されている。コンテンツデータは、広告コンテンツを識別するためのコンテンツIDと対応付けて記憶されている。   The advertising content storage unit 252 stores content data of advertising content. The content data is composed of moving image data composed of a plurality of frame images and audio data corresponding to each frame image. In this embodiment, the frame image of the content data displays the product name, product description, etc. in the projection area 291a of the image forming unit 27, and the face image of a person or character explaining the product in the projection area 291b. It is configured to be. The content data is stored in association with the content ID for identifying the advertising content.

広告関連情報記憶部253には、広告コンテンツ記憶部252に記憶されている各広告コンテンツに関連する情報である関連コンテンツを画像形成部27や音声出力部34から出力するためのコンテンツデータが記憶されている。関連コンテンツのコンテンツデータは、これに対応する広告コンテンツを識別するためのコンテンツIDと対応付けて記憶されている。   The advertisement related information storage unit 253 stores content data for outputting related content, which is information related to each advertisement content stored in the advertisement content storage unit 252, from the image forming unit 27 and the audio output unit 34. ing. The content data of the related content is stored in association with the content ID for identifying the advertising content corresponding to the content data.

通信部26は、モデム、ルータ、ネットワークカード等により構成され、通信ネットワークNに接続されたサーバ装置2や教師用端末3等の外部機器との通信を行う。   The communication unit 26 includes a modem, a router, a network card, and the like, and communicates with external devices such as the server device 2 and the teacher terminal 3 connected to the communication network N.

計時部30は、RTC(Real Time Clock)等により構成され、現在日時を取得して制御部23に出力する。   The time measuring unit 30 is configured by an RTC (Real Time Clock) or the like, acquires the current date and time, and outputs it to the control unit 23.

次に、スクリーン部22について説明する。
図3は、スクリーン部22の概略構成を示す正面図である。図3に示すようにスクリーン部22には、画像形成部27と、画像形成部27を支持する台座28とが備えられている。
Next, the screen unit 22 will be described.
FIG. 3 is a front view illustrating a schematic configuration of the screen unit 22. As shown in FIG. 3, the screen unit 22 includes an image forming unit 27 and a pedestal 28 that supports the image forming unit 27.

画像形成部27は、映像光の照射方向に対して略直交するように配置された、例えばアクリル板などの人型に成形された一枚の透光板29に、フレネルレンズが積層された背面投影用のスクリーンフィルムが貼付された投影用エリア291a〜291bと、予め画像が印刷されたフィルムが貼付された印刷エリア292と、により構成されたスクリーンである。プロジェクタ24は、画像形成部27の投影用エリア291a〜291bに画像を投影する。図3においては、投影用エリア291bに画像が投影されている場合を例として示している。画像形成部27と前述したプロジェクタ24とにより出力手段を構成している。   The image forming unit 27 is a back surface in which a Fresnel lens is laminated on a single translucent plate 29 that is formed in a human shape such as an acrylic plate, which is arranged so as to be substantially orthogonal to the irradiation direction of the image light. This is a screen constituted by projection areas 291a to 291b to which a projection screen film is attached and a print area 292 to which a film on which an image has been previously printed is attached. The projector 24 projects images on the projection areas 291 a to 291 b of the image forming unit 27. FIG. 3 shows an example in which an image is projected on the projection area 291b. The image forming unit 27 and the projector 24 described above constitute an output unit.

台座28には、ボタン式の操作部32と、非接触通信部33と、音声を出力するスピーカなどの音声出力部34と、マイク等の音声入力部35と、撮像部36と、が設けられている。   The pedestal 28 is provided with a button-type operation unit 32, a non-contact communication unit 33, an audio output unit 34 such as a speaker that outputs audio, an audio input unit 35 such as a microphone, and an imaging unit 36. ing.

操作部32は、各種操作ボタンを備え、操作ボタンの押下信号を検出して制御部23に出力する。   The operation unit 32 includes various operation buttons, detects a press signal of the operation button, and outputs it to the control unit 23.

非接触通信部33は、NFC(Near Field Communication)等の無線通信により、非接触通信部33との無線通信機能を備える通信端末としてのICカード4等と非接触通信を行い、ICカード4からのデータの読み取りを行ったり、ICカード4へのデータの書き込みを行ったりする。   The non-contact communication unit 33 performs non-contact communication with the IC card 4 as a communication terminal having a wireless communication function with the non-contact communication unit 33 by wireless communication such as NFC (Near Field Communication). Data is read, and data is written to the IC card 4.

撮像部36は、デジタルサイネージ装置1に対向する空間の画像を撮影して撮影画像を生成する。撮像部36は、図示は省略するが、光学系及び撮像素子を備えるカメラと、カメラを制御する撮像制御部とを備えている。
カメラの光学系は、デジタルサイネージ装置1の前にいるユーザを撮影可能な方向に向けられている。また、その撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサである。そして、撮像素子は、光学系を通過した光学像を2次元の画像信号に変換する。
操作部32と、非接触通信部33と、音声出力部34と、音声入力部35と、撮像部36とは、図2に示すように制御部23に接続されている。
The imaging unit 36 captures an image of a space facing the digital signage device 1 and generates a captured image. Although not shown, the imaging unit 36 includes a camera including an optical system and an imaging element, and an imaging control unit that controls the camera.
The optical system of the camera is directed in a direction in which a user in front of the digital signage device 1 can be photographed. The imaging element is, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS). The imaging element converts the optical image that has passed through the optical system into a two-dimensional image signal.
The operation unit 32, the non-contact communication unit 33, the audio output unit 34, the audio input unit 35, and the imaging unit 36 are connected to the control unit 23 as shown in FIG.

[サーバ装置2の構成]
サーバ装置2は、制御部、記憶部、通信部等を備えたコンピュータ装置である。サーバ装置2の記憶部には、デジタルサイネージ装置1が設置された店舗の会員情報(ユーザを識別するためのユーザID、ユーザの個人情報等)、デジタルサイネージ装置1のIPアドレス、英会話の教師情報(教師ID、パスワード、教師の個人情報、教師が使用している教師用端末3のIPアドレス等)が記憶されている。
サーバ装置2は、教師用端末3からアクセスがあると、教師ID及びパスワードに基づいてログイン認証を行い、ログインされた教師用端末3のIPアドレスを待機中の教師用端末3の装置情報として記憶部の所定領域に記憶する。デジタルサイネージ装置1から英会話学習サービスの開始要求があると、サーバ装置2は、記憶部の所定領域に記憶されている待機中の教師用端末3の装置情報を参照し、デジタルサイネージ装置1と待機中の教師用端末3とを対応付けて、装置間の接続を仲介する。
[Configuration of Server Device 2]
The server device 2 is a computer device that includes a control unit, a storage unit, a communication unit, and the like. In the storage unit of the server device 2, member information (a user ID for identifying the user, personal information of the user, etc.) of the store where the digital signage device 1 is installed, an IP address of the digital signage device 1, teacher information for English conversation (Teacher ID, password, teacher personal information, IP address of the teacher terminal 3 used by the teacher, etc.) are stored.
When accessed from the teacher terminal 3, the server device 2 performs login authentication based on the teacher ID and password, and stores the IP address of the logged-in teacher terminal 3 as device information of the waiting teacher terminal 3. Stored in a predetermined area. When there is a request for starting an English conversation learning service from the digital signage device 1, the server device 2 refers to the device information of the standby teacher terminal 3 stored in a predetermined area of the storage unit, and waits with the digital signage device 1. It associates with the teacher terminal 3 inside to mediate the connection between the devices.

[教師用端末3の構成]
教師用端末3は、英会話の教師が使用するPC(Personal Computer)等のコンピュータ装置であり、制御部、記憶部、表示部、操作部、通信部、撮像部、音声入力部、音声出力部等を備える。教師用端末3の撮像部の光学系は、表示部の前にいる教師を撮影可能な方向に向けられている。
教師用端末3は、操作部の操作に応じて通信ネットワークNを介してサーバ装置2に接続し、サーバ装置2からの指示に応じてデジタルサイネージ装置1と接続する。そして、教師用端末3の撮像部により取得した教師の画像データや音声入力部から入力された音声データをデジタルサイネージ装置1に送信したり、デジタルサイネージ装置1から受信した画像データや音声データを表示部や音声出力部により出力したりする。
[Configuration of teacher terminal 3]
The teacher terminal 3 is a computer device such as a PC (Personal Computer) used by an English conversation teacher, and includes a control unit, a storage unit, a display unit, an operation unit, a communication unit, an imaging unit, a voice input unit, a voice output unit, and the like. Is provided. The optical system of the imaging unit of the teacher terminal 3 is oriented in a direction in which the teacher in front of the display unit can be photographed.
The teacher terminal 3 is connected to the server device 2 via the communication network N according to the operation of the operation unit, and is connected to the digital signage device 1 according to an instruction from the server device 2. Then, the teacher image data acquired by the imaging unit of the teacher terminal 3 and the audio data input from the audio input unit are transmitted to the digital signage device 1 or the image data and audio data received from the digital signage device 1 are displayed. Or output by the audio output unit.

[ICカード4の構成]
ICカード4は、NFC(Near Field Communication)等による無線通信機能を備え、デジタルサイネージ装置1の非接触通信部33と無線通信可能なカード型の非接触通信端末である。ICカード4は、デジタルサイネージ装置1からの指示に応じてデータの書き込みや読み出しを行う。本実施形態において、ICカード4は、例えば、デジタルサイネージ装置1が設置された店舗の会員カード等であり、ユーザを識別するためのユーザID、ユーザの広告コンテンツ視聴履歴(ユーザが視聴した広告コンテンツのコンテンツID)、ユーザの広告コンテンツの視聴時間に応じたポイント情報等がICチップの所定の領域に記憶されている。
[Configuration of IC card 4]
The IC card 4 is a card-type non-contact communication terminal that has a wireless communication function such as NFC (Near Field Communication) and can wirelessly communicate with the non-contact communication unit 33 of the digital signage apparatus 1. The IC card 4 writes and reads data in accordance with instructions from the digital signage device 1. In the present embodiment, the IC card 4 is, for example, a membership card of a store where the digital signage device 1 is installed, a user ID for identifying the user, a user's advertisement content viewing history (the advertisement content viewed by the user) Content ID), point information according to the viewing time of the advertisement content of the user, and the like are stored in a predetermined area of the IC chip.

[コンテンツ出力システム100の動作]
次に、コンテンツ出力システム100の動作について説明する。
[Operation of Content Output System 100]
Next, the operation of the content output system 100 will be described.

図4に、デジタルサイネージ装置1において実行されるコンテンツ出力処理のフローチャートを示す。コンテンツ出力処理は、デジタルサイネージ装置1の電源がONとなった際に、制御部23とプログラム記憶部251に記憶されているプログラムとの協働により実行される。   FIG. 4 shows a flowchart of content output processing executed in the digital signage apparatus 1. The content output process is executed in cooperation with the program stored in the control unit 23 and the program storage unit 251 when the power of the digital signage apparatus 1 is turned on.

まず、制御部23は、非接触通信部33によりICカード4が検出されるのを待機する(ステップS1)。   First, the control unit 23 waits for the IC card 4 to be detected by the non-contact communication unit 33 (step S1).

非接触通信部33によりICカード4が検出されると(ステップS1;YES)、制御部23は、非接触通信部33によりICカード4からユーザIDを取得し(ステップS2)、ユーザIDに基づきログイン認証を行ってユーザを認識する(ステップS3)。
例えば、制御部23は、ICカード4に記憶されているユーザIDを読み出して通信部26によりサーバ装置2に送信し、ログイン要求を行う。サーバ装置2は、ログイン要求を受信すると、デジタルサイネージ装置1から受信したユーザIDと記憶部に記憶されているユーザIDを照合し、一致するユーザIDが存在した場合に、ログイン許可通知をデジタルサイネージ装置1に送信する。
When the IC card 4 is detected by the non-contact communication unit 33 (step S1; YES), the control unit 23 acquires a user ID from the IC card 4 by the non-contact communication unit 33 (step S2), and based on the user ID. Login authentication is performed to recognize the user (step S3).
For example, the control unit 23 reads the user ID stored in the IC card 4 and transmits the user ID to the server device 2 through the communication unit 26 to make a login request. When the server device 2 receives the login request, the server device 2 collates the user ID received from the digital signage device 1 with the user ID stored in the storage unit, and if a matching user ID exists, the server device 2 sends a login permission notification to the digital signage. Transmit to device 1.

ログインが許可されると、制御部23は、非接触通信部33によりICカード4からユーザの広告コンテンツ視聴履歴及びポイント情報を読み出してメモリの所定領域に記憶する(ステップS4)。   When the login is permitted, the control unit 23 reads the advertisement content viewing history and point information of the user from the IC card 4 by the non-contact communication unit 33 and stores it in a predetermined area of the memory (step S4).

次いで、制御部23は、画像形成部27に広告コンテンツの選択画面を表示させ(ステップS5)、操作部32による広告コンテンツの選択を待機する。操作部32の操作により選択画面から一の広告コンテンツが選択されると(ステップS6;YES)、制御部23は、選択された広告コンテンツを画像形成部27及び音声出力部34により出力させる(ステップS7)。具体的に、制御部23は、広告コンテンツ記憶部252から選択された広告コンテンツのコンテンツデータを読み出し、そのフレーム画像を順次プロジェクタ24に出力してプロジェクタ24により画像形成部27に投影させる。また、読み出した音声データを音声出力部34に出力し、広告コンテンツの音声を出力させる。   Next, the control unit 23 causes the image forming unit 27 to display an advertisement content selection screen (step S5), and waits for selection of the advertisement content by the operation unit 32. When one advertisement content is selected from the selection screen by the operation of the operation unit 32 (Step S6; YES), the control unit 23 causes the image forming unit 27 and the audio output unit 34 to output the selected advertisement content (Step S6). S7). Specifically, the control unit 23 reads the content data of the selected advertising content from the advertising content storage unit 252, sequentially outputs the frame images to the projector 24, and causes the projector 24 to project the image forming unit 27. Also, the read audio data is output to the audio output unit 34, and the audio of the advertising content is output.

広告コンテンツの出力(再生)が終了すると、制御部23は、視聴された広告コンテンツのコンテンツIDを取得してメモリの所定領域に記憶されている広告コンテンツ視聴履歴に追加するとともに、視聴時間に応じたポイントをメモリの所定領域に記憶されているポイント情報に加算し(ステップS8)、ユーザのポイントが所定ポイント以上貯まったか否かを判断する(ステップS9)。ポイントが所定ポイント以上貯まっていないと判断した場合(ステップS9;NO)、制御部23は、ステップS13に移行する。   When the output (playback) of the advertising content is completed, the control unit 23 acquires the content ID of the viewed advertising content and adds it to the advertising content viewing history stored in the predetermined area of the memory, and according to the viewing time. The added points are added to the point information stored in the predetermined area of the memory (step S8), and it is determined whether or not the user's points are accumulated more than the predetermined points (step S9). When it is determined that the points are not accumulated more than the predetermined point (step S9; NO), the control unit 23 proceeds to step S13.

ユーザのポイントが所定ポイント以上貯まったと判断した場合(ステップS9;YES)、制御部23は、画像形成部27に「ポイントが貯まりました。英会話学習サービスに移行しますか。」等のメッセージが表示された問合せ画面を表示させる(ステップS10)。なお、併せて音声出力部34により音声を出力することとしてもよい。   When it is determined that the user's points have accumulated more than a predetermined point (step S9; YES), the control unit 23 displays a message such as “Points have been accumulated. Will you move to the English conversation learning service?” To the image forming unit 27. The displayed inquiry screen is displayed (step S10). In addition, it is good also as outputting an audio | voice by the audio | voice output part 34 collectively.

操作部32により「英会話学習サービスに移行する」に対応する操作ボタンが押下されなかった(「英会話学習サービスに移行しない」に対応する操作ボタンが押下された)場合(ステップS11;NO)、制御部23は、ステップS13に移行する。   When the operation button corresponding to “transfer to English conversation learning service” is not pressed by the operation unit 32 (the operation button corresponding to “do not shift to English conversation learning service” is pressed) (step S11; NO), control is performed. The unit 23 proceeds to step S13.

操作部32により「英会話学習サービスに移行する」に対応する操作ボタンが押下されると(ステップS11;YES)、制御部23は、英会話学習サービス提供処理を実行する(ステップS12)。   When the operation button corresponding to “transition to English conversation learning service” is pressed by the operation unit 32 (step S11; YES), the control unit 23 executes an English conversation learning service provision process (step S12).

図5に、ステップS12において制御部23に実行される英会話学習サービス提供処理のフローチャートを示す。英会話学習サービス提供処理は、制御部23とプログラム記憶部251に記憶されたプログラムとの協働により実行される。   FIG. 5 shows a flowchart of the English conversation learning service providing process executed by the control unit 23 in step S12. The English conversation learning service providing process is executed in cooperation with the control unit 23 and the program stored in the program storage unit 251.

英会話学習サービス提供処理において、まず、制御部23は、メモリの所定領域に記憶されているポイント数に応じてユーザによる英会話学習サービスの受講時間(提供時間)を決定する(ステップS120)。   In the English conversation learning service providing process, first, the control unit 23 determines the attendance time (provided time) of the English conversation learning service by the user according to the number of points stored in the predetermined area of the memory (step S120).

次いで、制御部23は、教師用端末3への接続要求を通信部26によりサーバ装置2に送信する(ステップS121)。
サーバ装置2においては、デジタルサイネージ装置1から教師用端末3への接続要求を受信すると、記憶部から現在待機中の教師用端末3を検索して、待機中の教師用端末3とデジタルサイネージ装置1を通信接続させる。例えば、待機中の教師用端末3に通信ネットワークNを介してデジタルサイネージ装置1のIPアドレスを通知する。教師用端末3は、通知されたIPアドレスに基づいて通信ネットワークNを介してデジタルサイネージ装置1に接続する。
Next, the control unit 23 transmits a connection request to the teacher terminal 3 to the server device 2 through the communication unit 26 (step S121).
In the server device 2, when receiving a connection request from the digital signage device 1 to the teacher terminal 3, the server device 2 searches the storage unit for the currently waiting teacher terminal 3, and waits for the teacher terminal 3 and the digital signage device. 1 is connected for communication. For example, the IP address of the digital signage apparatus 1 is notified to the waiting teacher terminal 3 via the communication network N. The teacher terminal 3 connects to the digital signage apparatus 1 via the communication network N based on the notified IP address.

教師用端末3が接続されると、制御部23は、英会話学習サービスを開始する(ステップS122)。   When the teacher terminal 3 is connected, the control unit 23 starts an English conversation learning service (step S122).

英会話学習サービスにおいて、教師用端末3は、デジタルサイネージ装置1との接続後、所定時間間隔で撮像部により教師の顔画像を撮影して画像データを取得し、デジタルサイネージ装置1に送信する。また、教師用端末3は、音声入力部から入力された音声を音声データに変換し、デジタルサイネージ装置1に送信する。また、例えば、教師用端末3は、音声入力部から入力された音声のテキストデータを生成し、デジタルサイネージ装置1に送信する。
制御部23は、通信部26により教師用端末3から受信した画像データに基づく画像を画像形成部27の投影用エリア291bに表示させるとともに、教師用端末3から受信したテキストデータを投影用エリア291aに表示させる。また、通信部26により教師用端末3から受信した音声データに基づく音声を音声出力部34により出力させる。
In the English conversation learning service, after connecting to the digital signage device 1, the teacher terminal 3 captures the teacher's face image at a predetermined time interval, acquires image data, and transmits the image data to the digital signage device 1. The teacher terminal 3 converts the voice input from the voice input unit into voice data and transmits the voice data to the digital signage apparatus 1. Further, for example, the teacher terminal 3 generates voice text data input from the voice input unit and transmits the text data to the digital signage apparatus 1.
The control unit 23 displays an image based on the image data received from the teacher terminal 3 by the communication unit 26 in the projection area 291b of the image forming unit 27, and the text data received from the teacher terminal 3 is displayed in the projection area 291a. To display. Further, the voice output unit 34 outputs voice based on the voice data received from the teacher terminal 3 by the communication unit 26.

また、英会話学習サービスにおいて、制御部23は、所定時間間隔で撮像部36によりユーザの顔画像を撮影して画像データを取得し、通信部26により教師用端末3に送信するとともに、音声入力部35により入力された音声を音声データに変換し、通信部26により教師用端末3に送信する。
教師用端末3は、デジタルサイネージ装置1から受信した画像データに基づく画像を表示部に表示させるとともに、デジタルサイネージ装置1から受信した音声データに基づく音声を音声出力部により出力させる。
In the English conversation learning service, the control unit 23 captures a user's face image by the imaging unit 36 at predetermined time intervals to acquire image data, transmits the image data to the teacher terminal 3, and transmits the voice input unit. The voice input by 35 is converted into voice data and transmitted to the teacher terminal 3 by the communication unit 26.
The teacher terminal 3 displays an image based on the image data received from the digital signage device 1 on the display unit, and causes the audio output unit to output sound based on the audio data received from the digital signage device 1.

英会話学習サービスが開始されると、制御部23は、話題が尽きて沈黙状態になったことを検出したか否かを判断する(ステップS123)。例えば、音声入力部35から入力された音声信号の音圧が所定の閾値以下の状態が所定時間続いた場合に、制御部23は、沈黙状態になったことを検出したと判断する。   When the English conversation learning service is started, the control unit 23 determines whether or not it has been detected that the topic is exhausted and the silence state is reached (step S123). For example, when the state in which the sound pressure of the sound signal input from the sound input unit 35 is equal to or lower than a predetermined threshold continues for a predetermined time, the control unit 23 determines that it has detected that the silence state has been reached.

話題が尽きて沈黙状態になったことを検知したと判断した場合(ステップS123;YES)、制御部23は、ユーザが視聴した広告コンテンツに関連する関連コンテンツを出力するか否かの問合せ画面を画像形成部27に表示させる(ステップS124)。   When it is determined that it has been detected that the topic is exhausted and the silence state is detected (step S123; YES), the control unit 23 displays an inquiry screen as to whether or not to output related content related to the advertisement content viewed by the user. The image is displayed on the image forming unit 27 (step S124).

操作部32により、「広告コンテンツに関連する関連コンテンツを出力する」に対応する操作ボタンが押下され、関連コンテンツを出力することが選択された場合(ステップS125;YES)、制御部23は、メモリの所定領域に記憶されているユーザの広告コンテンツ視聴履歴を参照し、ユーザが視聴した広告コンテンツに関連する関連コンテンツを画像形成部27及び音声出力部34により出力させる(ステップS126)。   When an operation button corresponding to “output related content related to advertisement content” is pressed by the operation unit 32 and it is selected to output related content (step S125; YES), the control unit 23 stores the memory The related content related to the advertisement content viewed by the user is output by the image forming unit 27 and the audio output unit 34 with reference to the advertisement content viewing history of the user stored in the predetermined area (step S126).

具体的には、メモリの所定領域にユーザの広告コンテンツ視聴履歴として記憶されているコンテンツIDに対応付けられているコンテンツデータを広告関連情報記憶部253から読み出して、画像形成部27及び音声出力部34に出力させる。関連コンテンツとしては、以前にユーザが視聴した広告コンテンツそのものとしてもよいし、以前にユーザが視聴した広告コンテンツで宣伝した商品に関する情報等としてもよい。例えば、ユーザが視聴した広告コンテンツがカメラに関する広告であった場合に、「○○カメラ、今日だけ2割引!」等のように、そのカメラに関するお得な情報等を表示することとしてもよい。   Specifically, the content data associated with the content ID stored as the advertisement content viewing history of the user in a predetermined area of the memory is read from the advertisement related information storage unit 253, and the image forming unit 27 and the audio output unit 34 to output. The related content may be the advertising content itself viewed by the user before, or may be information related to a product advertised with the advertising content previously viewed by the user. For example, when the advertisement content viewed by the user is an advertisement related to a camera, it is possible to display advantageous information related to the camera, such as “XX camera, 2 discounts only today!”.

関連コンテンツの出力が終了すると、制御部23は、メモリの所定領域に記憶されているポイント情報に、予め定められたポイント数を加算し(ステップS127)、ステップS128に移行する。   When the output of the related content ends, the control unit 23 adds a predetermined number of points to the point information stored in the predetermined area of the memory (step S127), and proceeds to step S128.

一方、ステップS125において、操作部32により「広告コンテンツに関連する関連コンテンツを出力しない」に対応する操作ボタンが押下され、関連コンテンツを出力しないことが選択された場合(ステップS125;NO)、制御部23は、ステップS128に移行する。   On the other hand, in step S125, when the operation button corresponding to “Do not output related content related to advertisement content” is pressed by the operation unit 32 and it is selected not to output related content (step S125; NO), control is performed. The unit 23 proceeds to step S128.

ステップS128において、制御部23は、受講時間が経過したか否かを判断する(ステップS128)。受講時間が経過していないと判断した場合(ステップS128;NO)、制御部23は、ステップS123に戻る。   In step S128, the control unit 23 determines whether or not the attendance time has elapsed (step S128). When it is determined that the attendance time has not elapsed (step S128; NO), the control unit 23 returns to step S123.

ステップS128において、受講時間が経過したと判断した場合(ステップS128;YES)、制御部23は、英会話学習サービスの受講に対応するポイント数をメモリの所定領域に記憶されているポイント情報から減算する(ステップS129)。そして、制御部23は、通信部26により教師用端末3との通信を切断して英会話学習サービスを終了し(ステップS130)、図4のステップS13に移行する。   If it is determined in step S128 that the attendance time has elapsed (step S128; YES), the control unit 23 subtracts the number of points corresponding to the attendance of the English conversation learning service from the point information stored in the predetermined area of the memory. (Step S129). And the control part 23 cut | disconnects communication with the teacher terminal 3 by the communication part 26, complete | finishes an English conversation learning service (step S130), and transfers to step S13 of FIG.

図4ステップS13において、制御部23は、メモリの所定領域に記憶されている広告コンテンツ視聴履歴及びポイント情報を非接触通信部33によりICカード4に記録し(ステップS13)、メモリをクリアしてログアウトし(ステップS14)、ステップS1に戻る。   In step S13 of FIG. 4, the control unit 23 records the advertisement content viewing history and point information stored in the predetermined area of the memory on the IC card 4 by the non-contact communication unit 33 (step S13), and clears the memory. Log out (step S14) and return to step S1.

制御部23は、デジタルサイネージ装置1の電源がOFFされるまでステップS1〜ステップS14の処理を繰り返し実行する。   The control unit 23 repeatedly executes the processes of steps S1 to S14 until the power of the digital signage device 1 is turned off.

以上説明したように、デジタルサイネージ装置1によれば、非接触通信部33によりICカード4が検出されると、制御部23は、非接触通信部33によりICカード4からユーザIDを取得してサーバ装置2にログイン認証を行わせてユーザを認識する。次いで、制御部23は、画像形成部27に広告コンテンツの選択画面を表示させ、選択された広告コンテンツを画像形成部27等により出力させる。広告コンテンツの出力が終了すると、制御部23は、出力された広告コンテンツのコンテンツIDをユーザの広告コンテンツ視聴履歴に追加し、視聴時間に応じたポイントを加算する。ポイントが所定ポイント以上である場合、制御部23は、英会話学習サービスへ移行し、ユーザが視聴した広告コンテンツに関連する情報を英会話学習サービス中に画像形成部27により出力させる。
従って、ユーザが広告コンテンツを視聴したことにより取得したポイントによるサービスの提供中にユーザが視聴した広告コンテンツに関連する情報を出力するので、広告コンテンツの効果を向上させることができる。
As described above, according to the digital signage device 1, when the IC card 4 is detected by the non-contact communication unit 33, the control unit 23 acquires the user ID from the IC card 4 by the non-contact communication unit 33. The server apparatus 2 is made to perform login authentication and recognizes the user. Next, the control unit 23 causes the image forming unit 27 to display an advertisement content selection screen, and causes the image forming unit 27 to output the selected advertisement content. When the output of the advertising content is completed, the control unit 23 adds the content ID of the output advertising content to the user's advertising content viewing history, and adds points according to the viewing time. When the point is equal to or greater than the predetermined point, the control unit 23 shifts to the English conversation learning service, and causes the image forming unit 27 to output information related to the advertisement content viewed by the user during the English conversation learning service.
Accordingly, since the information related to the advertisement content viewed by the user during the provision of the service based on the points acquired by viewing the advertisement content by the user, the effect of the advertisement content can be improved.

また、制御部23は、ユーザによる広告コンテンツの視聴時間に応じて英会話学習サービスの提供時間(受講時間)を決定し、決定された時間、英会話学習サービスの提供を行う。
従って、ユーザが広告コンテンツを視聴するほど長時間の英会話学習サービスを受けることが可能となるので、ユーザの広告コンテンツを視聴する意欲の向上を図ることができる。
In addition, the control unit 23 determines an English conversation learning service providing time (learning time) according to the viewing time of the advertisement content by the user, and provides the English conversation learning service for the determined time.
Therefore, since the user can receive an English conversation learning service for a longer time as the user views the advertisement content, the user's willingness to view the advertisement content can be improved.

また、制御部23は、英会話学習サービスの提供中に、ユーザが視聴した広告コンテンツに関連する情報を出力するタイミング(例えば、沈黙状態となったタイミング)を検出した場合に、ユーザが視聴した広告コンテンツに関連する情報を画像形成部27等に出力させる。
従って、英会話学習サービスの提供中の所定のタイミングで、ユーザが視聴した広告コンテンツに関連する情報を出力することが可能となる。
In addition, when the control unit 23 detects the timing of outputting information related to the advertisement content viewed by the user (for example, the timing when the user becomes silent) while providing the English conversation learning service, the control unit 23 views the advertisement viewed by the user. Information related to the content is output to the image forming unit 27 or the like.
Therefore, it is possible to output information related to the advertisement content viewed by the user at a predetermined timing during the provision of the English conversation learning service.

また、制御部23は、ユーザIDが記録されたICカード4と非接触通信を行ってユーザIDを取得することにより、ユーザを認識することができる。   Moreover, the control part 23 can recognize a user by performing non-contact communication with IC card 4 with which user ID was recorded, and acquiring user ID.

なお、上記実施形態における記述内容は、本発明に係るデジタルサイネージ装置の好適な一例であり、これに限定されるものではない。   In addition, the description content in the said embodiment is a suitable example of the digital signage apparatus which concerns on this invention, and is not limited to this.

例えば、上記実施形態においては、ユーザが広告コンテンツを視聴することにより英会話学習サービスを提供する場合を例にとり説明したが、ユーザによる広告コンテンツの視聴に対して提供するサービスは、これに限定されるものではない。   For example, in the above embodiment, the case where the user provides the English conversation learning service by viewing the advertisement content has been described as an example, but the service provided for the viewing of the advertisement content by the user is limited to this. It is not a thing.

また、上記実施形態においては、制御部23は、音声入力部35からの入力信号に基づいて話題が尽きて沈黙状態になったことを検出することにより、ユーザが視聴した広告コンテンツに関連する情報を出力するタイミングを検出することとして説明したが、ユーザが視聴した広告コンテンツに関連する情報を出力するタイミングを検出する検出手段としては、これに限定されるものではない。   Further, in the above embodiment, the control unit 23 detects information related to the advertisement content viewed by the user by detecting that the topic is exhausted based on the input signal from the audio input unit 35 and becomes silent. However, the detection means for detecting the timing at which information related to the advertisement content viewed by the user is output is not limited to this.

また、上記実施形態においては、ユーザIDが記憶されたICカード4から非接触通信部33によりユーザIDを取得し、ユーザIDに基づいてユーザを認識することとしたが、ユーザの認識方法としては、これに限定されるものではない。例えば、会員であるユーザの顔画像をデータベースに予め登録しておき、所定時間間隔で撮像部36により撮影を行い、撮像部36により取得した撮像画像に顔認識を行い、認識した顔画像とデータベースに登録されているユーザの顔画像とを照合することによりユーザを認識することとしてもよい。
また、上記実施形態においては、店舗の会員情報をサーバ装置2に記憶してサーバ装置2でユーザIDの照合を行ったが、デジタルサイネージ装置1の記憶部25に店舗の会員情報を記憶してデジタルサイネージ装置1のみによりユーザ認証を行うこととしてもよい。
In the above embodiment, the user ID is acquired by the non-contact communication unit 33 from the IC card 4 in which the user ID is stored, and the user is recognized based on the user ID. However, the present invention is not limited to this. For example, a face image of a user who is a member is registered in advance in a database, the image capturing unit 36 captures images at predetermined time intervals, face recognition is performed on the captured image acquired by the image capturing unit 36, and the recognized face image and database It is good also as recognizing a user by collating with the user's face image registered into.
In the above embodiment, the store member information is stored in the server device 2 and the user ID is collated by the server device 2. However, the store member information is stored in the storage unit 25 of the digital signage device 1. User authentication may be performed only by the digital signage apparatus 1.

また、上記実施形態においては、ユーザ毎の広告コンテンツ視聴履歴やポイント情報をICカード4に記憶しておくことしたが、デジタルサイネージ装置1の記憶部25に記憶することとしてもよい。また、サーバ装置2の記憶部に記憶することとしてもよい。   In the above embodiment, the advertisement content viewing history and point information for each user are stored in the IC card 4, but may be stored in the storage unit 25 of the digital signage device 1. Further, it may be stored in the storage unit of the server device 2.

また、上記実施形態においては、ICカード4との通信手段として、NFCによる非接触通信を例示したが、他の通信規格としてもよく、特に限定されない。   Moreover, in the said embodiment, although the non-contact communication by NFC was illustrated as a communication means with IC card 4, it may be other communication standards and is not specifically limited.

また、上記実施形態においては、ユーザ毎のユーザID、広告コンテンツ視聴履歴やポイント情報をICカード4に記憶し、非接触通信によりICカード4から読み出す場合を例にとり説明したが、ユーザID、広告コンテンツ視聴履歴やポイント情報を記憶する通信端末としては、これに限定されず、例えば、非接触通信部33との通信機能を備えた携帯端末等としてもよい。   In the above embodiment, the user ID, advertisement content viewing history, and point information for each user are stored in the IC card 4 and read from the IC card 4 by non-contact communication. The communication terminal that stores the content viewing history and point information is not limited to this, and may be, for example, a portable terminal that has a communication function with the non-contact communication unit 33.

また、上記実施形態においては、ユーザによる広告コンテンツの視聴に対して提供するサービス、例えば、英会話学習サービスをデジタルサイネージ装置1により提供することとしたが、撮像部や音声入力部、音声出力部、ICカード4との非接触通信部を備える他の情報出力装置、例えば、ユーザの自宅のPCで提供することとしてもよい。例えば、ユーザの自宅のPCにステップS1〜4、ステップS9〜S14の処理を実行するプログラムを記憶しておき、非接触通信部においてICカード4が検出された場合にこれらの処理を実行することで、ユーザに自宅でサービスを提供することができる。
また、上記実施形態においては、デジタルサイネージ装置1で上述のコンテンツ出力処理を実行することにより、広告コンテンツの出力及び英会話学習サービスの提供を行うこととして説明したが、これに限定されず、撮像部や音声入力部、音声出力部、ICカード4との非接触通信部を備える他の情報出力装置において上述のコンテンツ出力処理を実行し、広告コンテンツの出力及び広告コンテンツの視聴に応じたサービスの提供を行うこととしてもよい。
In the above embodiment, the digital signage device 1 provides a service provided for viewing advertisement content by the user, for example, an English conversation learning service. However, the imaging unit, the voice input unit, the voice output unit, It is good also as providing with another information output device provided with the non-contact communication part with IC card 4, for example, user's home PC. For example, a program for executing the processes of steps S1 to S4 and steps S9 to S14 is stored in the PC at the user's home, and these processes are executed when the IC card 4 is detected in the non-contact communication unit. Thus, the service can be provided to the user at home.
In the above-described embodiment, the digital signage device 1 has been described as performing the above-described content output processing to output the advertising content and provide the English conversation learning service. The above content output processing is executed in another information output device including a voice input unit, a voice output unit, and a non-contact communication unit with the IC card 4, and a service corresponding to the output of the advertising content and the viewing of the advertising content is provided. It is good also as performing.

また、上記実施形態においては、画像形成部27が人型である場合を例にとり説明したが、他の形状としてもよく、これに限定されるものではない。
また、上記実施形態においては、コンテンツを広告コンテンツとして説明したが、これに限定されるものではない。
In the above-described embodiment, the case where the image forming unit 27 is a human type has been described as an example. However, other shapes may be used, and the present invention is not limited to this.
Moreover, in the said embodiment, although content was demonstrated as advertisement content, it is not limited to this.

その他、デジタルサイネージ装置及びサーバ装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of the digital signage device and the server device can be changed as appropriate without departing from the spirit of the invention.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
コンテンツを出力する出力手段と、
ユーザを認識するユーザ認識手段と、
前記ユーザ認識手段により認識されたユーザが視聴したコンテンツの情報を取得する取得手段と、
前記ユーザにコンテンツの出力とは異なるサービスを提供している間に、前記ユーザが視聴したコンテンツに関連する情報を前記出力手段により出力させる制御手段と、
を備える情報出力装置。
<請求項2>
前記制御手段は、前記ユーザによるコンテンツの視聴時間に応じて前記サービスを提供する時間を決定し、決定された時間、前記サービスの提供を行う請求項1に記載の情報出力装置。
<請求項3>
前記ユーザが視聴したコンテンツに関連する情報を出力するタイミングを検出する検出手段を備え、
前記制御手段は、前記検出手段により前記コンテンツに関連する情報を出力するタイミングが検出された場合に、前記コンテンツに関連する情報を前記出力手段に出力させる請求項1又は2に記載の情報出力装置。
<請求項4>
前記ユーザ認識手段は、ユーザの識別情報が記録された通信端末と非接触通信を行ってユーザの識別情報を取得することにより、ユーザを認識する請求項1〜3の何れか一項に記載の情報出力装置。
<請求項5>
出力手段によりコンテンツを出力する工程と、
ユーザを認識する工程と、
前記認識されたユーザが視聴したコンテンツの情報を取得する工程と、
前記ユーザにコンテンツの出力とは異なるサービスを提供している間に、前記ユーザが視聴したコンテンツに関連する情報を前記出力手段により出力させる工程と、
を含む情報出力方法。
<請求項6>
コンテンツを出力する出力手段を備える情報出力装置に用いられるコンピュータを、
ユーザを認識するユーザ認識手段、
前記ユーザ認識手段により認識されたユーザが視聴したコンテンツの情報を取得する取得手段、
前記ユーザにコンテンツの出力とは異なるサービスを提供している間に、前記ユーザが視聴したコンテンツに関連する情報を前記出力手段により出力させる制御手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Output means for outputting content;
User recognition means for recognizing a user;
Obtaining means for obtaining information of content viewed by the user recognized by the user recognition means;
Control means for causing the output means to output information related to the content viewed by the user while providing the user with a service different from the content output;
An information output device comprising:
<Claim 2>
The information output apparatus according to claim 1, wherein the control unit determines a time for providing the service according to a viewing time of content by the user, and provides the service for the determined time.
<Claim 3>
Detecting means for detecting timing of outputting information related to the content viewed by the user;
3. The information output device according to claim 1, wherein the control unit causes the output unit to output information related to the content when a timing at which the information related to the content is output is detected by the detection unit. .
<Claim 4>
4. The user recognition unit according to claim 1, wherein the user recognition unit recognizes the user by performing contactless communication with the communication terminal in which the user identification information is recorded to acquire the user identification information. 5. Information output device.
<Claim 5>
Outputting the content by output means;
Recognizing the user;
Obtaining information of content viewed by the recognized user;
Outputting the information related to the content viewed by the user by the output means while providing the user with a service different from the content output;
Information output method.
<Claim 6>
A computer used for an information output device having an output means for outputting content,
User recognition means for recognizing a user,
Acquisition means for acquiring information of content viewed by the user recognized by the user recognition means;
Control means for causing the output means to output information related to the content viewed by the user while providing the user with a service different from the content output;
Program to function as.

100 コンテンツ出力システム
1 デジタルサイネージ装置
21 投影部
22 スクリーン部
23 制御部
24 プロジェクタ
25 記憶部
251 プログラム記憶部
252 広告コンテンツ記憶部
253 広告関連情報記憶部
26 通信部
27 画像形成部
28 台座
29 透光板
30 計時部
32 操作部
33 非接触通信部
34 音声出力部
35 音声入力部
36 撮像部
2 サーバ装置
3 教師用端末
DESCRIPTION OF SYMBOLS 100 Content output system 1 Digital signage apparatus 21 Projection part 22 Screen part 23 Control part 24 Projector 25 Storage part 251 Program storage part 252 Advertisement content storage part 253 Advertisement related information storage part 26 Communication part 27 Image formation part 28 Base 29 Translucent board 30 Timekeeping unit 32 Operation unit 33 Non-contact communication unit 34 Audio output unit 35 Audio input unit 36 Imaging unit 2 Server device 3 Teacher terminal

Claims (6)

コンテンツを出力する出力手段と、
ユーザを認識するユーザ認識手段と、
前記ユーザ認識手段により認識されたユーザが視聴したコンテンツの情報を取得する取得手段と、
前記ユーザにコンテンツの出力とは異なるサービスを提供している間に、前記ユーザが視聴したコンテンツに関連する情報を前記出力手段により出力させる制御手段と、
を備える情報出力装置。
Output means for outputting content;
User recognition means for recognizing a user;
Obtaining means for obtaining information of content viewed by the user recognized by the user recognition means;
Control means for causing the output means to output information related to the content viewed by the user while providing the user with a service different from the content output;
An information output device comprising:
前記制御手段は、前記ユーザによるコンテンツの視聴時間に応じて前記サービスを提供する時間を決定し、決定された時間、前記サービスの提供を行う請求項1に記載の情報出力装置。   The information output apparatus according to claim 1, wherein the control unit determines a time for providing the service according to a viewing time of content by the user, and provides the service for the determined time. 前記ユーザが視聴したコンテンツに関連する情報を出力するタイミングを検出する検出手段を備え、
前記制御手段は、前記検出手段により前記コンテンツに関連する情報を出力するタイミングが検出された場合に、前記コンテンツに関連する情報を前記出力手段に出力させる請求項1又は2に記載の情報出力装置。
Detecting means for detecting timing of outputting information related to the content viewed by the user;
3. The information output device according to claim 1, wherein the control unit causes the output unit to output information related to the content when a timing at which the information related to the content is output is detected by the detection unit. .
前記ユーザ認識手段は、ユーザの識別情報が記録された通信端末と非接触通信を行ってユーザの識別情報を取得することにより、ユーザを認識する請求項1〜3の何れか一項に記載の情報出力装置。   4. The user recognition unit according to claim 1, wherein the user recognition unit recognizes the user by performing contactless communication with the communication terminal in which the user identification information is recorded to acquire the user identification information. 5. Information output device. 出力手段によりコンテンツを出力する工程と、
ユーザを認識する工程と、
前記認識されたユーザが視聴したコンテンツの情報を取得する工程と、
前記ユーザにコンテンツの出力とは異なるサービスを提供している間に、前記ユーザが視聴したコンテンツに関連する情報を前記出力手段により出力させる工程と、
を含む情報出力方法。
Outputting the content by output means;
Recognizing the user;
Obtaining information of content viewed by the recognized user;
Outputting the information related to the content viewed by the user by the output means while providing the user with a service different from the content output;
Information output method.
コンテンツを出力する出力手段を備える情報出力装置に用いられるコンピュータを、
ユーザを認識するユーザ認識手段、
前記ユーザ認識手段により認識されたユーザが視聴したコンテンツの情報を取得する取得手段、
前記ユーザにコンテンツの出力とは異なるサービスを提供している間に、前記ユーザが視聴したコンテンツに関連する情報を前記出力手段により出力させる制御手段、
として機能させるためのプログラム。
A computer used for an information output device having an output means for outputting content,
User recognition means for recognizing a user,
Acquisition means for acquiring information of content viewed by the user recognized by the user recognition means;
Control means for causing the output means to output information related to the content viewed by the user while providing the user with a service different from the content output;
Program to function as.
JP2015055781A 2015-03-19 2015-03-19 Information output device, information output method, and program Pending JP2016178403A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015055781A JP2016178403A (en) 2015-03-19 2015-03-19 Information output device, information output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015055781A JP2016178403A (en) 2015-03-19 2015-03-19 Information output device, information output method, and program

Publications (1)

Publication Number Publication Date
JP2016178403A true JP2016178403A (en) 2016-10-06

Family

ID=57071377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015055781A Pending JP2016178403A (en) 2015-03-19 2015-03-19 Information output device, information output method, and program

Country Status (1)

Country Link
JP (1) JP2016178403A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019125309A (en) * 2018-01-19 2019-07-25 ヤフー株式会社 Sales assist device, sales assist method and program
JP2020039042A (en) * 2018-09-04 2020-03-12 株式会社Jストリーム Service providing device, terminal device program, and receiving device program
JP2022512462A (en) * 2019-02-25 2022-02-03 プリテクノロジー、インコーポレイテッド Methods and equipment for monitoring and tracking digital content

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222643A (en) * 1999-12-02 2001-08-17 Sony Computer Entertainment America System and method for providing content, console, and recording medium
JP2002099629A (en) * 2000-09-22 2002-04-05 Casio Comput Co Ltd Learning information providing system and storage medium
JP2002215075A (en) * 2000-11-17 2002-07-31 Shunji Sugaya Advertisement delivery and display method and system
JP2002366833A (en) * 2001-06-06 2002-12-20 Sony Corp Device and method for selecting advertisement, device and method for providing contents, and storage medium
JP2003030343A (en) * 2001-07-16 2003-01-31 Kanae Akitani Information providing system and online lecture providing system capable of using the same system
JP2003224843A (en) * 2001-10-19 2003-08-08 Microsoft Corp Video segment targeting using remotely issued instructions and localized state and behavior information
JP2003242410A (en) * 2002-02-19 2003-08-29 Fujitsu Ltd Information distribution method, and computer program
JP2004048635A (en) * 2002-05-20 2004-02-12 Digital Network Appliance Inc Shopping system, video rental system and dialog system using moving picture distribution technology
JP2004056535A (en) * 2002-07-22 2004-02-19 Nec Engineering Ltd Method and system for viewing pay television broadcasting
JP2004101770A (en) * 2002-09-06 2004-04-02 Cypress Soft Kk Method for providing educational information, apparatus for outputting educational information, education system, computer program and recording medium
JP2007110502A (en) * 2005-10-14 2007-04-26 Keiko Naomura Advertisement method using video
JP2008040623A (en) * 2006-08-02 2008-02-21 Sharp Corp Advertisement providing system, advertisement providing device, advertisement display device, advertisement providing method, and program
JP2014060552A (en) * 2012-09-14 2014-04-03 Ricoh Co Ltd Transmission system, transmission management system and program
JP2015185951A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Distribution advertisement determining device, distribution advertisement determining method, and distribution advertisement determining program
JP2016005015A (en) * 2014-06-13 2016-01-12 大日本印刷株式会社 Content delivery system and content delivery device

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222643A (en) * 1999-12-02 2001-08-17 Sony Computer Entertainment America System and method for providing content, console, and recording medium
JP2002099629A (en) * 2000-09-22 2002-04-05 Casio Comput Co Ltd Learning information providing system and storage medium
JP2002215075A (en) * 2000-11-17 2002-07-31 Shunji Sugaya Advertisement delivery and display method and system
JP2002366833A (en) * 2001-06-06 2002-12-20 Sony Corp Device and method for selecting advertisement, device and method for providing contents, and storage medium
JP2003030343A (en) * 2001-07-16 2003-01-31 Kanae Akitani Information providing system and online lecture providing system capable of using the same system
JP2003224843A (en) * 2001-10-19 2003-08-08 Microsoft Corp Video segment targeting using remotely issued instructions and localized state and behavior information
JP2003242410A (en) * 2002-02-19 2003-08-29 Fujitsu Ltd Information distribution method, and computer program
JP2004048635A (en) * 2002-05-20 2004-02-12 Digital Network Appliance Inc Shopping system, video rental system and dialog system using moving picture distribution technology
JP2004056535A (en) * 2002-07-22 2004-02-19 Nec Engineering Ltd Method and system for viewing pay television broadcasting
JP2004101770A (en) * 2002-09-06 2004-04-02 Cypress Soft Kk Method for providing educational information, apparatus for outputting educational information, education system, computer program and recording medium
JP2007110502A (en) * 2005-10-14 2007-04-26 Keiko Naomura Advertisement method using video
JP2008040623A (en) * 2006-08-02 2008-02-21 Sharp Corp Advertisement providing system, advertisement providing device, advertisement display device, advertisement providing method, and program
JP2014060552A (en) * 2012-09-14 2014-04-03 Ricoh Co Ltd Transmission system, transmission management system and program
JP2015185951A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Distribution advertisement determining device, distribution advertisement determining method, and distribution advertisement determining program
JP2016005015A (en) * 2014-06-13 2016-01-12 大日本印刷株式会社 Content delivery system and content delivery device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019125309A (en) * 2018-01-19 2019-07-25 ヤフー株式会社 Sales assist device, sales assist method and program
JP2020039042A (en) * 2018-09-04 2020-03-12 株式会社Jストリーム Service providing device, terminal device program, and receiving device program
JP2022512462A (en) * 2019-02-25 2022-02-03 プリテクノロジー、インコーポレイテッド Methods and equipment for monitoring and tracking digital content
JP7127912B2 (en) 2019-02-25 2022-08-30 プリテクノロジー、インコーポレイテッド Methods, systems and computer programs

Similar Documents

Publication Publication Date Title
JP2012023595A (en) Conference system
JP6405826B2 (en) Information processing apparatus, information processing method, and program
US20170186290A1 (en) Video surveillance system, a method applied to a video surveillance system and a method for activating a service by a video surveillance system
KR102330637B1 (en) System, server, method and recording medium for providing augmented reality photocard
US20170249654A1 (en) Information apparatus, server, method of posting advertisements, method of providing special bonuses, and computer readable medium
WO2015145769A1 (en) Imaging device, information processing device, photography assistance system, photography assistance program, and photography assistance method
JP2020505705A (en) Method and device for learning feature image and user authentication method
JP2016178403A (en) Information output device, information output method, and program
JP2010218039A (en) System and method for authenticating face
US20160261828A1 (en) Method, Device, and System for Multipoint Video Communication
US20160117553A1 (en) Method, device and system for realizing visual identification
JP4964833B2 (en) Information presentation control apparatus and information presentation control method
JP6519157B2 (en) INFORMATION EVALUATING DEVICE, INFORMATION EVALUATING METHOD, AND PROGRAM
JP2016090727A (en) Content output apparatus and program
TW201501030A (en) System and method for obtaining information displaying on an digital signage
JP6870274B2 (en) Image print system
JP2013186750A (en) Communication device, communication method, and program
JP6776966B2 (en) Image providing system
KR102172588B1 (en) Moving picture album production method and system for exhibition hall spectator
KR20170000191A (en) Mehod for providing content in terminal and terminal thereof
JP4046664B2 (en) Information providing system, information providing method, information providing program, and recording medium for recording information providing program for portable information terminal
JP2016057417A (en) Information output device, content output method, and program
JP2017117037A (en) Advertisement device, staff selection method, and program
JP6448866B2 (en) Image acquisition system, image acquisition method and program
JP2017167573A (en) Information processing apparatus, layout evaluation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190409