JP2017054270A - コンテンツ出力装置、コンテンツ出力方法及びプログラム - Google Patents

コンテンツ出力装置、コンテンツ出力方法及びプログラム Download PDF

Info

Publication number
JP2017054270A
JP2017054270A JP2015177118A JP2015177118A JP2017054270A JP 2017054270 A JP2017054270 A JP 2017054270A JP 2015177118 A JP2015177118 A JP 2015177118A JP 2015177118 A JP2015177118 A JP 2015177118A JP 2017054270 A JP2017054270 A JP 2017054270A
Authority
JP
Japan
Prior art keywords
gesture
content
language
unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015177118A
Other languages
English (en)
Inventor
洋一 村山
Yoichi Murayama
洋一 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015177118A priority Critical patent/JP2017054270A/ja
Publication of JP2017054270A publication Critical patent/JP2017054270A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザに応じたコンテンツの出力ができるようにする。
【解決手段】デジタルサイネージ装置1によれば、液晶表示部31のタッチパネル313は、ユーザが所定の対象を入力するときのジェスチャーを検出し、制御部23は、タッチパネル313により検出されたジェスチャーに基づいてコンテンツに使用する言語を決定し、決定した言語で画像形成部27及び音声出力部33からコンテンツを出力させる。
【選択図】図4

Description

本発明は、コンテンツ出力装置、コンテンツ出力方法及びプログラムに関する。
従来、コンテンツに登場する人物等の輪郭の形状に形成されたスクリーンにコンテンツを投影することにより、閲覧者に対して印象を高めることができる映像出力装置搭載機器が知られている(例えば、特許文献1参照)。
特開2011−150221号公報
しかしながら、特許文献1に記載の映像出力装置搭載機器においては、一方的に映像コンテンツを出力するだけであり、ユーザがそのコンテンツの言語を理解できない外国人であった場合に対応することができなかった。
本発明の課題は、ユーザに応じたコンテンツの出力ができるようにすることである。
上記課題を解決するため、請求項1に記載の発明のコンテンツ出力装置は、
ジェスチャーを検出する検出手段と、
前記検出手段により検出されたジェスチャーに基づいてコンテンツに使用する言語を決定する決定手段と、
前記決定手段により決定された言語でコンテンツを出力する出力手段と、
を備える。
本発明によれば、ユーザに応じたコンテンツの出力が可能となる。
本実施形態におけるデジタルサイネージ装置の機能的構成を示すブロック図である。 図1のスクリーン部の概略構成を示す図である。 図1のジェスチャー記憶部のデータ格納例を示す図である。 図1の制御部により実行されるコンテンツ出力処理を示すフローチャートである。 (a)は、ユーザの使用している言語で所定の対象を表す言葉を文字入力するように促すメッセージを表示した液晶表示部の一例を示す図、(b)は、ユーザが液晶表示部に所定の対象を表す言葉を文字入力した例を示す図である。
以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。以下の実施形態では、本発明に係るコンテンツ出力装置としてデジタルサイネージ装置1を適用した場合を例にとり説明する。なお、本発明は、図示例に限定されるものではない。
[デジタルサイネージ装置1の構成]
図1は、本実施形態におけるデジタルサイネージ装置1の主制御構成を示すブロック図である。図2は、スクリーン部22の概略構成を示す正面図である。デジタルサイネージ装置1は、例えば、店舗等に設置され、商品を説明するコンテンツを出力する装置である。
図1に示すように、デジタルサイネージ装置1は、コンテンツの映像光を照射する投影部21と、投影部21から照射された映像光を背面で受けて前面に投影するスクリーン部22とを備えている。
まず、投影部21について説明する。
投影部21は、制御部23と、プロジェクタ24と、記憶部25と、通信部26と、を備えている。プロジェクタ24、記憶部25、通信部26は、図1に示すように制御部23に接続されている。
制御部23は、記憶部25に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPU(Central Processing Unit)とプログラム実行時の作業領域となるメモリとを備えている(いずれも図示略)。制御部23は、記憶部25のプログラム記憶部251に記憶されているプログラムとの協働により、決定手段、出力制御手段として機能する。
プロジェクタ24は、制御部23から出力されたコンテンツの画像データを映像光に変換してスクリーン部22に向けて照射する投影装置である。プロジェクタ24は、例えば、アレイ状に配列された複数個(XGAの場合、横1024画素×縦768画素)の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することでその反射光により光像を形成する表示素子であるDMD(デジタルマイクロミラーデバイス)を利用したDLP(Digital Light Processing)(登録商標)プロジェクタが適用可能である。
プロジェクタ24は、画像形成部27及び音声出力部33とともに、出力手段を構成する。
記憶部25は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部25には、図1に示すように、プログラム記憶部251、コンテンツ記憶部252、ジェスチャー記憶部253が設けられている。
プログラム記憶部251には、制御部23で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
コンテンツ記憶部252には、複数の言語のコンテンツデータが記憶されている。コンテンツデータは、特に限定されないが、例えば、複数のフレーム画像により構成される動画データ及び各フレーム画像に対応する音声データ等により構成される。
ジェスチャー記憶部253には、コンテンツ記憶部252にコンテンツデータが記憶されている複数の言語のそれぞれに対応付けて、その言語で所定の対象(ここでは、数字の「2」)を表す言葉を文字入力するときのジェスチャーを示す情報が記憶されている。ここで、ジェスチャーとは、入力動作を指す。
図3に、ジェスチャー記憶部253のデータ格納例を示す。本実施形態では、図3に示すように、複数の言語のそれぞれで所定の対象を表す言葉を文字入力するときのジェスチャーを示す情報として、各言語で所定の対象を表す言葉を文字入力するときの書き順、又は所定の対象を表す言葉として入力される文字の形状等が記憶されている。
通信部26は、モデム、ルータ、ネットワークカード等により構成され、外部機器との通信を行う。
次に、スクリーン部22について説明する。
図2に示すように、スクリーン部22には、画像形成部27と、画像形成部27を支持する台座28とが備えられている。
画像形成部27は、映像光の照射方向に対して略直交するように配置された、例えばアクリル板などの人型に成形された一枚の透光板29に、フィルム状のフレネルレンズが積層された背面投影用のフィルムスクリーンが貼付されて構成されたスクリーンである。
台座28には、人感センサ30と、液晶表示部31と、ボタン式の操作部32と、音声を出力するスピーカなどの音声出力部33とが設けられている。
人感センサ30は、赤外線、超音波等によりデジタルサイネージ装置1の周囲の所定範囲における人の存在を検出して制御部23に検出信号を出力する。
液晶表示部31は、表示手段として機能するものである。また、液晶表示部31は、その表面を覆うように透明電極を格子状に配置したタッチパネル313を有している。タッチパネル313は、検出手段として機能するもので、手指やタッチペン等で押下された位置を検出し、その位置情報を入力情報として制御部23に出力する。
人感センサ30、液晶表示部31、操作部32、音声出力部33は、図1に示すように制御部23に接続されている。
[デジタルサイネージ装置1の動作]
次に、デジタルサイネージ装置1の動作について説明する。
図4に、デジタルサイネージ装置1において実行されるコンテンツ出力処理のフローチャートを示す。コンテンツ出力処理は、人感センサ30で人が検出された場合に、制御部23とプログラム記憶部251に記憶されているプログラムとの協働により実行される。
まず、制御部23は、図5(a)に示すように、液晶表示部31に、ユーザの使用している言語で所定の対象(ここでは、数字の「2」)を表す言葉を文字入力するように促すメッセージを表示させる(ステップS1)。
なお、本実施形態では、所定の対象を「2」として説明するが、所定の対象は、コンテンツ記憶部252にコンテンツデータが記憶されている複数の言語(即ち、デジタルサイネージ装置1で使用可能な複数の言語)でその対象を表す言葉の文字入力を行ったときにその入力動作が互いに異なるジェスチャーとなるものであれば、特に限定されない。例えば、「Good Morning!」等、どの言語を使用しているユーザにもわかるような挨拶等を文字表示して、ユーザの使用している言語でその文字(挨拶)に対応する言葉を文字入力するように促す表示を表示させてもよい。また、例えば、ネコの絵を表示して、ユーザの使用している言語でその絵(即ち、ネコ)に対応する言葉を文字入力するように促す表示を表示させてもよい。
また、プロジェクタ24により画像形成部27に、液晶表示部31に所定の対象を表す言葉を文字入力するように促す表示を併せて表示させることとしてもよい。
ユーザは、ステップS1の表示に対し、図5(b)に示すように、液晶表示部31の画面上で所定の対象である「2」を表す言葉に対応する文字を入力する。なお、図5(b)の例では、twoの3文字を液晶表示部31に並べて書き込む態様としているが、液晶表示部31に一文字ずつ順次入力させる態様としてもよい。
次いで、制御部23は、タッチパネル313によりジェスチャー(入力動作)が検出されるのを待機する(ステップS2;NO)。タッチパネル313によりジェスチャーが検出された場合(ステップS2;YES)、制御部23は、タッチパネル313により検出されたジェスチャーを示す情報(例えば、入力された文字の書き順(又は入力された文字の形状))をメモリに記憶する(ステップS3)。制御部23は、ジェスチャーが終了するまでステップS3の処理を繰り返し、ジェスチャーが終了したと判断した場合(ステップS4;YES)、ステップS5に移行する。ここで、制御部23は、例えば、タッチパネル313から所定時間以上入力がない場合に、ジェスチャーが終了したと判断する。
ステップS5において、制御部23は、検出されたジェスチャーに基づいて、コンテンツの出力に使用する言語を決定する(ステップS5)。具体的に、制御部23は、メモリに記憶されている書き順(又は文字の形状)と、ジェスチャー記憶部253に記憶されている各言語の書き順(又は文字の形状)との照合を行い、照合結果に基づいてコンテンツに使用する言語を決定する。例えば、メモリに記憶されている書き順(又は文字の形状)と、ジェスチャー記憶部253に記憶されている各言語の書き順(又は文字の形状)とのパターンマッチングを行い、類似度が最も高い言語をコンテンツの出力に使用する言語として決定する。
そして、制御部23は、決定した言語でコンテンツを出力する(ステップS6)。具体的に、制御部23は、コンテンツ記憶部252から決定した言語に対応するコンテンツデータの画像データを読み出し、そのフレーム画像を順次プロジェクタ24に出力してプロジェクタ24により画像形成部27に投影させる。また、決定した言語に対応するコンテンツの音声データを音声出力部33に出力し、決定した言語でコンテンツの音声を出力させる。
ここで、ユーザは、コンテンツに使用する言語を切り替えたい場合、操作部32の所定の操作により言語を切り替えることができる。
操作部32により言語の切り替えが指示された場合(ステップS7;YES)、制御部23は、操作部32からの指示に基づいてコンテンツに使用する言語を切り替える(ステップS8)。
制御部23は、人感センサ30によりユーザが検出されている間、コンテンツの出力を続け、ユーザが検出されなくなった場合、出力中のコンテンツの出力が終了した時点でコンテンツ出力処理を終了する。
以上説明したように、デジタルサイネージ装置1によれば、液晶表示部31のタッチパネル313は、ユーザが所定の対象を入力するときのジェスチャーを検出し、制御部23は、タッチパネル313により検出されたジェスチャーに基づいてコンテンツに使用する言語を決定し、決定した言語で画像形成部27及び音声出力部33からコンテンツを出力させる。
具体的に、デジタルサイネージ装置1は、自装置で使用可能な複数の言語のそれぞれに対応付けて、その言語で所定の対象を入力するときのジェスチャーを示す情報をジェスチャー記憶部253に記憶しておき、制御部23は、タッチパネル313により検出されたジェスチャーを示す情報と、ジェスチャー記憶部253に記憶されているジェスチャーを示す情報とを照合し、照合結果に基づいて、コンテンツに使用する言語を決定する。
従って、ユーザに応じた言語でコンテンツの出力を行うことが可能となる。
また、ユーザにとっては、コンテンツの言語を切り替える操作方法がわからなくても、所定の対象を表す言葉を入力するだけでコンテンツの言語を自分の使用している言語に切り替えることができるので、利便性が向上する。
なお、上記実施形態における記述内容は、本発明に係るデジタルサイネージ装置の好適な一例であり、これに限定されるものではない。
例えば、上記実施形態においては、ジェスチャーを文字の入力の動作として説明したが、絵(図形を含む)の入力動作としてもよい。例えば、ジェスチャー記憶部253において、コンテンツに使用可能な複数の言語のそれぞれに対し、その言語を使用している国の国旗の絵のパターンをジェスチャーを示す情報として対応付けて記憶しておく。そして、上記コンテンツ出力処理におけるステップS1でユーザの国の国旗の絵の入力を促す表示を行い、入力された国旗の絵とジェスチャー記憶部253に記憶されている国旗のパターンとのパターンマッチングによりコンテンツに使用する言語を決定することとしてもよい。
また、上記実施形態においては、本発明をプロジェクタからスクリーンに画像を投影することで画像の表示を行うデジタルサイネージ装置に適用した場合を例にとり説明したが、例えば、液晶ディスプレイ、プラズマディスプレイ等、他の表示装置を備えるコンテンツ出力装置に適用しても同様の効果を奏することができ、この例に限定されない。
また、上記実施形態においては、コンテンツを出力するための画像形成部27とは別に、ジェスチャーを検出するためのタッチパネル313を備えた液晶表示部31を設けることとしたが、コンテンツを出力するための画面にタッチパネルを備える構成としてもよい。
また、上記実施形態においては、人感センサ30によりユーザを検出することとしたが、カメラ等により検出することとしてもよい。
その他、デジタルサイネージ装置を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
ジェスチャーを検出する検出手段と、
前記検出手段により検出されたジェスチャーに基づいてコンテンツに使用する言語を決定する決定手段と、
前記決定手段により決定された言語でコンテンツを出力する出力手段と、
を備えるコンテンツ出力装置。
<請求項2>
前記検出手段は、入力動作をジェスチャーとして検出する請求項1に記載のコンテンツ出力装置。
<請求項3>
複数の言語のコンテンツデータを記憶する記憶手段と、
ユーザに対し、前記複数の言語のそれぞれに対応する入力動作が互いに異なるジェスチャーとなる所定の対象の入力を促す情報を表示する表示手段と、を備え、
前記検出手段は、ユーザによる前記所定の対象の入力動作を検出する請求項2に記載のコンテンツ出力装置。
<請求項4>
前記表示手段は、前記所定の対象を数字、絵、又は文字により表示する請求項3に記載のコンテンツ出力装置。
<請求項5>
前記複数の言語のそれぞれに対応付けて前記所定の対象を入力するときのジェスチャーを示す情報を記憶するジェスチャー記憶手段を備え、
前記決定手段は、前記検出手段により検出されたジェスチャーを示す情報と、前記ジェスチャー記憶手段に記憶されているジェスチャーを示す情報とを照合し、照合結果に基づいて、前記コンテンツに使用する言語を決定する請求項3又は4に記載のコンテンツ出力装置。
<請求項6>
ジェスチャーを検出する工程と、
前記検出されたジェスチャーに基づいてコンテンツに使用する言語を決定する工程と、
前記決定された言語でコンテンツを出力する工程と、
を含むコンテンツ出力方法。
<請求項7>
コンピュータを、
ジェスチャーを検出する検出手段、
前記検出手段により検出されたジェスチャーに基づいてコンテンツに使用する言語を決定する決定手段、
前記決定手段により決定された言語で出力手段によりコンテンツを出力させる出力制御手段、
として機能させるためのプログラム。
1 デジタルサイネージ装置
21 投影部
22 スクリーン部
23 制御部
24 プロジェクタ
25 記憶部
251 プログラム記憶部
252 コンテンツ記憶部
253 ジェスチャー記憶部
26 通信部
27 画像形成部
28 台座
29 透光板
30 人感センサ
31 液晶表示部
313 タッチパネル
32 操作部
33 音声出力部

Claims (7)

  1. ジェスチャーを検出する検出手段と、
    前記検出手段により検出されたジェスチャーに基づいてコンテンツに使用する言語を決定する決定手段と、
    前記決定手段により決定された言語でコンテンツを出力する出力手段と、
    を備えるコンテンツ出力装置。
  2. 前記検出手段は、入力動作をジェスチャーとして検出する請求項1に記載のコンテンツ出力装置。
  3. 複数の言語のコンテンツデータを記憶する記憶手段と、
    ユーザに対し、前記複数の言語のそれぞれに対応する入力動作が互いに異なるジェスチャーとなる所定の対象の入力を促す情報を表示する表示手段と、を備え、
    前記検出手段は、ユーザによる前記所定の対象の入力動作を検出する請求項2に記載のコンテンツ出力装置。
  4. 前記表示手段は、前記所定の対象を数字、絵、又は文字により表示する請求項3に記載のコンテンツ出力装置。
  5. 前記複数の言語のそれぞれに対応付けて前記所定の対象を入力するときのジェスチャーを示す情報を記憶するジェスチャー記憶手段を備え、
    前記決定手段は、前記検出手段により検出されたジェスチャーを示す情報と、前記ジェスチャー記憶手段に記憶されているジェスチャーを示す情報とを照合し、照合結果に基づいて、前記コンテンツに使用する言語を決定する請求項3又は4に記載のコンテンツ出力装置。
  6. ジェスチャーを検出する工程と、
    前記検出されたジェスチャーに基づいてコンテンツに使用する言語を決定する工程と、
    前記決定された言語でコンテンツを出力する工程と、
    を含むコンテンツ出力方法。
  7. コンピュータを、
    ジェスチャーを検出する検出手段、
    前記検出手段により検出されたジェスチャーに基づいてコンテンツに使用する言語を決定する決定手段、
    前記決定手段により決定された言語で出力手段によりコンテンツを出力させる出力制御手段、
    として機能させるためのプログラム。
JP2015177118A 2015-09-09 2015-09-09 コンテンツ出力装置、コンテンツ出力方法及びプログラム Pending JP2017054270A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015177118A JP2017054270A (ja) 2015-09-09 2015-09-09 コンテンツ出力装置、コンテンツ出力方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015177118A JP2017054270A (ja) 2015-09-09 2015-09-09 コンテンツ出力装置、コンテンツ出力方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2017054270A true JP2017054270A (ja) 2017-03-16

Family

ID=58320807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015177118A Pending JP2017054270A (ja) 2015-09-09 2015-09-09 コンテンツ出力装置、コンテンツ出力方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2017054270A (ja)

Similar Documents

Publication Publication Date Title
US11323658B2 (en) Display apparatus and control methods thereof
US8827461B2 (en) Image generation device, projector, and image generation method
US11073905B2 (en) Work assistance system, work assistance method, and computer-readable recording medium
JP2014095853A (ja) 画像処理装置、投影装置、画像処理方法及びプログラム
JP2012190118A (ja) 画像生成装置、プロジェクター、プログラムおよび画像生成方法
US20160275338A1 (en) Image processing apparatus, image processing method, and computer-readable storing medium
US20150261385A1 (en) Picture signal output apparatus, picture signal output method, program, and display system
JP2009211447A (ja) 入力システム及びこれを用いた表示システム
KR20180066440A (ko) 미술 학습을 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
JP2015138084A (ja) 映像ディスプレイ装置および映像ディスプレイシステム
JP2017054270A (ja) コンテンツ出力装置、コンテンツ出力方法及びプログラム
JP2018045348A (ja) コンテンツ制御装置、コンテンツ制御方法及びプログラム
JP6326866B2 (ja) 表示装置、表示方法及びプログラム
JP6065533B2 (ja) 電子看板装置及び動作方法
JP6085951B2 (ja) 画像処理装置及び画像選択方法
US11698575B2 (en) Projective transformation matrix determination method, projector, and determination system
JP2018045061A (ja) コンテンツ制御装置、コンテンツ制御方法及びプログラム
US9635204B2 (en) Partial information capture and processing
JP2018156339A (ja) 情報表示システム、情報表示装置、制御方法、およびプログラム
JP2016057760A (ja) 表示装置、投影装置、表示方法及び表示プログラム
KR20180033738A (ko) 디스플레이 장치에 설치되는 착탈식 터치 패널 장치
US10860205B2 (en) Control device, control method, and projection system
JP2017059916A (ja) コンテンツ出力装置、コンテンツ出力方法及びプログラム
JP2017117037A (ja) 広告装置、スタッフ選択方法、及びプログラム
US20160081086A1 (en) Information output device and computer-readable medium