JP2019105751A - Display control apparatus, program, display system, display control method and display data - Google Patents

Display control apparatus, program, display system, display control method and display data Download PDF

Info

Publication number
JP2019105751A
JP2019105751A JP2017238495A JP2017238495A JP2019105751A JP 2019105751 A JP2019105751 A JP 2019105751A JP 2017238495 A JP2017238495 A JP 2017238495A JP 2017238495 A JP2017238495 A JP 2017238495A JP 2019105751 A JP2019105751 A JP 2019105751A
Authority
JP
Japan
Prior art keywords
display
sentence
display control
control device
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017238495A
Other languages
Japanese (ja)
Other versions
JP7052328B2 (en
Inventor
伊藤 直之
Naoyuki Ito
直之 伊藤
拓也 生駒
Takuya Ikoma
拓也 生駒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017238495A priority Critical patent/JP7052328B2/en
Publication of JP2019105751A publication Critical patent/JP2019105751A/en
Application granted granted Critical
Publication of JP7052328B2 publication Critical patent/JP7052328B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a display control apparatus capable of efficiently presenting minimum necessary information, a program, a display system, a display control method and display data.SOLUTION: A display control apparatus 1 comprises: a feature word extraction unit 20 that analyzes a sentence and extracts a plurality of feature words indicating features of the sentence; a sentence output unit 14 that displays sentences on a display 4; and an emphasis output unit 15 that causes the display 4 to display a plurality of feature words extracted by the feature word extraction unit 20 in order as the time passes.SELECTED DRAWING: Figure 1

Description

本発明は、表示制御装置、プログラム、表示システム、表示制御方法及び表示データに関する。   The present invention relates to a display control device, a program, a display system, a display control method, and display data.

昨今、例えば、駅構内や街中における広告では、デジタルサイネージ等によるデジタル画像や映像を用いたものが主流になってきている。
そのような広告等は、立ち止まることなく通行人が歩きながら目を向けることが多く、通行人が実際に広告等を見ている時間が少ないと考えられる。そのため、必要最小限の情報を効率的に提示することが望まれる。
ところで、教育の分野において、リスニングの能力を向上させるために、文章内の重要語句を強調した音声を再生する学習支援装置が開示されている(例えば、特許文献1)。
Recently, for example, in advertisements in a station yard or in a town, those using digital images and images by digital signage and the like have become mainstream.
Such advertisements are often viewed by passers-by while walking without stopping, and it is considered that the time when the passers are actually watching the advertisement is short. Therefore, it is desirable to efficiently present the minimum necessary information.
By the way, in the field of education, in order to improve listening ability, a learning support device is disclosed which reproduces a voice emphasizing an important word / phrase in a sentence (for example, Patent Document 1).

特開2017−009872号公報JP 2017-009872 A

特許文献1に記載のものは、音声による再生であるため、文章を順番に再生し、かつ、そのうちの重要語句に対しては、強調して再生するものであった。しかし、デジタル画像や映像のような表示は、一度に文章全体を表示させることができるため、必要最小限の情報を効率的に提示するには更なる工夫が必要である。   Since the thing of patent document 1 is reproduction | regeneration by an audio | voice, it reproduced | regenerated the sentence in order and was emphasized and reproduced | regenerated with respect to the important word phrase among those. However, since displays such as digital images and videos can display the entire text at one time, further devising is necessary to efficiently present the minimum information.

そこで、本発明は、必要最小限の情報を効率的に提示することが可能な表示制御装置、プログラム、表示システム、表示制御方法及び表示データを提供することを目的とする。   Therefore, the present invention has an object to provide a display control apparatus, a program, a display system, a display control method, and display data capable of efficiently presenting the minimum necessary information.

本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、文章を解析して、前記文章の特徴を示す複数の特徴語を抽出する特徴語抽出手段と、前記文章を、表示装置に表示させる文章表示手段と、前記特徴語抽出手段により抽出した前記複数の特徴語を時間の経過と共に順番に強調して前記表示装置に表示させる強調表示手段と、を備える表示制御装置である。
第2の発明は、第1の発明の表示制御装置において、前記特徴語抽出手段は、前記文章を形態素解析して得られた単語ごとに重み付けをし、前記単語の重要度に応じて前記特徴語を抽出すること、を特徴とする表示制御装置である。
第3の発明は、第1の発明又は第2の発明の表示制御装置において、撮影装置の撮影画像から前記表示装置の方向を向いているユーザの存在を判断するユーザ判断手段を備え、前記文章表示手段は、前記ユーザ判断手段により前記ユーザの存在を判断したことに応じて、前記文章を前記表示装置に表示させること、を特徴とする表示制御装置である。
第4の発明は、第3の発明の表示制御装置において、前記ユーザの視線方向を判断する視線判断手段と、前記視線判断手段により判断した前記視線方向から、前記ユーザが見ている前記表示装置の表示位置を特定する位置特定手段と、を備え、前記強調表示手段は、前記位置特定手段により特定された前記表示位置の近傍に有する前記特徴語を最初に強調させ、時間の経過と共に順番に前記複数の特徴語を強調して表示させること、を特徴とする表示制御装置である。
第5の発明は、第1の発明又は第2の発明の表示制御装置において、撮影装置の撮影画像から前記表示装置の方向を向いているユーザの存在を判断するユーザ判断手段を備え、前記強調表示手段は、前記ユーザ判断手段により前記ユーザの存在を判断したことに応じて、前記複数の特徴語を時間の経過と共に順番に強調して表示させること、を特徴とする表示制御装置である。
第6の発明は、第1の発明から第5の発明までのいずれかの表示制御装置において、前記強調表示手段は、前記特徴語を時間の経過と共に順番に強調して表示させる速度を、時間の経過と共に遅く変化させること、を特徴とする表示制御装置である。
第7の発明は、第1の発明から第6の発明までのいずれかの表示制御装置において、前記強調表示手段は、前記特徴語の文字数及び前記特徴語に含まれる各文字の構成のうち少なくとも一方に応じて、強調して表示させる時間の長さを決定し、決定した長さの時間、前記特徴語を強調して表示させること、を特徴とする表示制御装置である。
第8の発明は、第1の発明から第7の発明までのいずれかの表示制御装置において、前記文章に対応付けられた前記複数の特徴語から1以上の特徴語にまとめた複数の語群を生成する語群生成手段を備え、前記強調表示手段は、前記複数の特徴語を時間の経過と共に順番に強調することに代えて、前記文章のうち前記語群を、時間の経過と共に順番に強調して表示させること、を特徴とする表示制御装置である。
第9の発明は、第1の発明から第8の発明までのいずれかの表示制御装置において、前記特徴語抽出手段により抽出された前記複数の特徴語を、前記文章に対応付けて特徴語記憶部に記憶させる登録手段を備えること、を特徴とする表示制御装置である。
第10の発明は、第1の発明から第9の発明までのいずれかの表示制御装置としてコンピュータを機能させるためのプログラムである。
第11の発明は、第1の発明から第9の発明までのいずれかの表示制御装置と、前記表示制御装置に対して通信可能に接続され、前記文章を表示させる表示装置と、を備える表示システムである。
第12の発明は、特徴語抽出手段が、文章を解析して、前記文章の特徴を示す複数の特徴語を抽出するステップと、文章表示手段が、表示装置に文章を表示させるステップと、強調表示手段が、前記特徴語抽出手段により抽出した前記複数の特徴語を時間の経過と共に順番に強調して前記表示装置に表示させるステップと、を含む表示制御方法である。
第13の発明は、文章のデータと、前記文章の特徴を示す複数の特徴語を強調表示させるデータである強調データと、を備えた表示データである。
第14の発明は、第13の発明の表示データにおいて、前記強調データは、時間の経過と共に前記複数の特徴語を順番に強調表示させるものである、表示データである。
The present invention solves the above problems by the following solution means.
According to a first aspect of the present invention, there is provided a feature word extraction unit that analyzes a sentence and extracts a plurality of feature words indicating features of the sentence, a sentence display unit that causes the display device to display the sentence, and the feature word extraction unit And a highlighting means for emphasizing the plurality of feature words extracted in accordance with the passage of time and displaying the plurality of feature words in order on the display device.
A second aspect of the invention is the display control device according to the first aspect, wherein the feature word extraction means weights each word obtained by morphologically analyzing the sentence, and the feature is selected according to the importance of the word. It is a display control device characterized by extracting a word.
A third invention is the display control apparatus according to the first invention or the second invention, further comprising: user judgment means for judging the presence of a user facing the direction of the display device from a photographed image of the photographing device, the text The display means is a display control apparatus characterized in that the text is displayed on the display device in response to the presence of the user being judged by the user judgment means.
A fourth aspect of the invention is the display control device according to the third aspect of the invention, wherein: the display device viewed by the user from the gaze direction determined by the gaze determination means for determining the gaze direction of the user; Position identification means for specifying the display position of the display, and the highlighting means first emphasizes the feature words in the vicinity of the display position identified by the position identification means, and sequentially in order with the passage of time A display control apparatus characterized by emphasizing and displaying the plurality of feature words.
A fifth invention is the display control apparatus according to the first invention or the second invention, further comprising: user judgment means for judging the presence of a user pointing in the direction of the display device from a photographed image of a photographing device, The display means is a display control apparatus characterized in that the plurality of feature words are emphasized and displayed in order as time passes in response to the user judgment means judging the presence of the user.
A sixth invention is the display control device according to any one of the first invention to the fifth invention, wherein the highlighting means emphasizes and displays the feature words in order with time. To change slowly with the lapse of time.
A seventh invention is the display control device according to any one of the first invention to the sixth invention, wherein the highlighting means includes at least at least one of the number of characters of the feature word and the configuration of each character included in the feature word. According to one aspect of the present invention, the display control device is characterized in that the length of time to be emphasized and displayed is determined, and the characteristic word is emphasized and displayed for the determined length of time.
An eighth invention is a display control apparatus according to any one of the first invention to the seventh invention, wherein a plurality of word groups are grouped into one or more feature words from the plurality of feature words associated with the sentence. Instead of emphasizing the plurality of feature words sequentially with the passage of time, the highlighting unit sequentially generates the word group of the sentences with the passage of time. It is a display control device characterized by emphasizing and displaying.
A ninth invention relates to the display control device according to any one of the first invention to the eighth invention, wherein the plurality of feature words extracted by the feature word extraction means are associated with the sentence and feature word storage It is a display control apparatus characterized by providing the registration means made to memorize | store in a part.
A tenth invention is a program for causing a computer to function as the display control device according to any one of the first invention to the ninth invention.
An eleventh invention is a display comprising: the display control device according to any one of the first invention to the ninth invention; and a display device communicably connected to the display control device and displaying the text. It is a system.
In a twelfth aspect of the present invention, the feature word extraction means analyzes a sentence to extract a plurality of feature words indicating the feature of the sentence, the sentence display means causes the display device to display a sentence, and emphasizing And displaying the plurality of feature words extracted by the feature word extraction unit in order as the time passes and displaying them on the display device.
A thirteenth invention is display data comprising text data and emphasis data which is data for highlighting a plurality of feature words indicating the characteristics of the text.
A fourteenth aspect of the invention is the display data according to the thirteenth aspect of the invention, wherein the emphasis data is to highlight the plurality of feature words in order as time passes.

本発明によれば、必要最小限の情報を効率的に提示することが可能な表示制御装置、プログラム、表示システム、表示制御方法及び表示データを提供することができる。   According to the present invention, it is possible to provide a display control device, a program, a display system, a display control method, and display data capable of efficiently presenting the minimum necessary information.

本実施形態に係る表示システムの全体概要図である。FIG. 1 is an overall schematic view of a display system according to the present embodiment. 本実施形態に係る表示システムの機能ブロック図である。It is a functional block diagram of a display system concerning this embodiment. 本実施形態に係る表示制御装置の記憶部の例を示す図である。It is a figure which shows the example of the memory | storage part of the display control apparatus which concerns on this embodiment. 本実施形態に係る表示制御装置の表示処理を示すフローチャートである。It is a flowchart which shows the display process of the display control apparatus which concerns on this embodiment. 本実施形態に係る表示制御装置による表示処理の具体例を示す図である。It is a figure which shows the specific example of the display process by the display control apparatus which concerns on this embodiment. 本実施形態に係る表示制御装置の文章処理を示すフローチャートである。It is a flowchart which shows the text processing of the display control apparatus which concerns on this embodiment.

以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
<表示システム100>
図1は、本実施形態に係る表示システム100の全体概要図である。
図2は、本実施形態に係る表示システム100の機能ブロック図である。
図3は、本実施形態に係る表示制御装置1の記憶部30の例を示す図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
(Embodiment)
<Display system 100>
FIG. 1 is an overall schematic view of a display system 100 according to the present embodiment.
FIG. 2 is a functional block diagram of the display system 100 according to the present embodiment.
FIG. 3 is a diagram showing an example of the storage unit 30 of the display control device 1 according to the present embodiment.

図1に示す表示システム100は、例えば、駅構内に設けられたディスプレイ4(表示装置)に文章を表示させ、文章内の必要最小限の情報を、効率的に提示するためのシステムである。
図2に示すように、表示システム100は、表示制御装置1と、ディスプレイ4と、カメラ5(撮影装置)とを備える。表示制御装置1と、ディスプレイ4と、カメラ5とは、通信ネットワークNを介して通信可能に接続されている。通信ネットワークNは、例えば、インターネット回線等である。また、通信ネットワークNは、例えば、Bluetooth(登録商標)規格に基づく短距離無線通信等を用いるものであってもよい。
A display system 100 shown in FIG. 1 is a system for displaying sentences on a display 4 (display device) provided in a station yard, for example, and efficiently presenting the minimum information in the sentences.
As shown in FIG. 2, the display system 100 includes a display control device 1, a display 4, and a camera 5 (shooting device). The display control device 1, the display 4 and the camera 5 are communicably connected via a communication network N. The communication network N is, for example, an internet connection or the like. The communication network N may use, for example, short distance wireless communication based on the Bluetooth (registered trademark) standard.

<表示制御装置1>
表示制御装置1は、ディスプレイ4に表示させる文章に関する処理を行う。表示制御装置1は、文章の特徴を示す特徴語を抽出しておき、文章をディスプレイ4に表示させる際に、特徴語を順番に強調して表示させる。
ここで、特徴語とは、文章内の語のうち、文章の内容を理解するために必要な重要語をいう。
表示制御装置1は、例えば、サーバである。表示制御装置1は、その他、パーソナルコンピュータ(PC)等であってもよい。
表示制御装置1は、制御部10と、記憶部30と、通信インタフェース部39とを備える。
<Display control device 1>
The display control device 1 performs processing relating to a sentence to be displayed on the display 4. The display control device 1 extracts feature words indicating the feature of a sentence, and when displaying a sentence on the display 4, emphasizes and displays the feature words in order.
Here, the characteristic word means an important word necessary for understanding the content of the sentence among the words in the sentence.
The display control device 1 is, for example, a server. The display control device 1 may also be a personal computer (PC) or the like.
The display control device 1 includes a control unit 10, a storage unit 30, and a communication interface unit 39.

制御部10は、表示制御装置1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部30に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、表示処理部11と、文章処理部18とを備える。
表示処理部11は、文章をディスプレイ4に表示させるための処理を行う制御部である。
表示処理部11は、ユーザ判断部12(ユーザ判断手段)と、視線判断部13(視線判断手段)と、文章出力部14(文章表示手段)と、強調出力部15(強調表示手段)とを備える。
The control unit 10 is a central processing unit (CPU) that controls the entire display control device 1. The control unit 10 appropriately reads and executes an operating system (OS) and an application program stored in the storage unit 30 to cooperate with the above-described hardware to execute various functions.
The control unit 10 includes a display processing unit 11 and a text processing unit 18.
The display processing unit 11 is a control unit that performs processing for displaying a sentence on the display 4.
The display processing unit 11 includes a user determination unit 12 (user determination unit), a line-of-sight determination unit 13 (line-of-sight determination unit), a text output unit 14 (text display means), and an emphasis output unit 15 (emphasis display means). Prepare.

ユーザ判断部12は、カメラ5から取得した撮影データの画像を分析して、ユーザ(人)の存在を判断する。
視線判断部13は、ユーザ判断部12がユーザの存在を判断した場合に、そのユーザの視線方向を判断する。ここで、視線判断部13は、ユーザ判断部12が複数のユーザの存在を判断した場合には、各ユーザの視線方向を判断してもよいし、ディスプレイ4に最も近いユーザの視線方向を判断してもよい。また、視線判断部13は、ディスプレイ4から近い距離の範囲(例えば、5m以内等)にいるユーザの視線方向を判断してもよい。
文章出力部14は、視線判断部13によりユーザの視線方向が、ディスプレイ4の方向を向いている場合に、ディスプレイ4に文章データ(文章のデータ)を出力し、ディスプレイ4に文章を表示させる。
強調出力部15は、文章出力部14により文章データが出力された場合に、ディスプレイ4に特徴語を強調した強調データを出力し、文章中の特徴語を順番に強調してディスプレイ4に表示させる。
The user determination unit 12 analyzes the image of the shooting data acquired from the camera 5 to determine the presence of a user (person).
When the user determination unit 12 determines the presence of the user, the gaze determination unit 13 determines the gaze direction of the user. Here, when the user determination unit 12 determines the presence of a plurality of users, the gaze determination unit 13 may determine the gaze direction of each user, or determines the gaze direction of the user closest to the display 4 You may The line-of-sight determination unit 13 may also determine the line-of-sight direction of the user who is within a range (for example, 5 m or less) close to the display 4.
The sentence output unit 14 causes the line-of-sight determination unit 13 to output sentence data (data of sentence) to the display 4 and causes the display 4 to display a sentence when the gaze direction of the user is directed to the direction of the display 4.
When the sentence output unit 14 outputs sentence data, the emphasis output unit 15 outputs the emphasis data in which the characteristic words are emphasized on the display 4, and emphasizes the characteristic words in the sentences in order and causes the display 4 to display them. .

文章処理部18は、表示処理部11が表示処理をする文章の前処理を行うものであり、文章を解析して特徴語を抽出する処理を行う制御部である。
文章処理部18は、文章解析部19と、特徴語抽出部20(特徴語抽出手段)と、特徴語登録部21(登録手段)とを備える。
文章解析部19は、処理対象の文章から複数の単語を抽出する。具体的には、文章解析部19は、例えば、文章に対して形態素解析を行うことによって、文章から複数の単語を抽出する。
The sentence processing unit 18 is a control unit that performs preprocessing of a sentence on which the display processing unit 11 performs display processing, and performs a process of analyzing a sentence and extracting a feature word.
The sentence processing unit 18 includes a sentence analysis unit 19, a feature word extraction unit 20 (feature word extraction means), and a feature word registration unit 21 (registration means).
The sentence analysis unit 19 extracts a plurality of words from the sentence to be processed. Specifically, the sentence analysis unit 19 extracts a plurality of words from the sentence by, for example, performing morphological analysis on the sentence.

特徴語抽出部20は、文章解析部19によって抽出された単語から、特徴語を抽出する。具体的には、特徴語抽出部20は、文章解析部19によって抽出された複数の単語ごとに重み付けをし、重要度に応じて抽出した単語を、特徴語にする。
語に対する重み付けとしては、例えば、語の品詞による重み付けや、他の文章との弁別性を用いた重み付け等がある。語の品詞による重み付けであれば、例えば、特徴をより表す品詞である名詞の重み付けを最も高く設定し、次に動詞の重み付けを高く設定する、等のルールを予め決めておき、そのルールに則って語に対して重み付けを付与する。ルールは、経験則から決められたものであってよく、例えば、名詞でも、固有名詞の重み付けをさらに高く設定したりしてもよい。また、他の文章との弁別性を用いた重み付けであれば、例えば、Web上の様々な文章を分析して抽出した単語との相対出現頻度であるIDF(Inverse Document Frequency)を算出し、算出したスコアにより語に対して重み付けを付与する。
特徴語登録部21は、特徴語抽出部20により抽出した特徴語を、文章に対応付けて特徴語記憶部33に記憶させる。
The feature word extraction unit 20 extracts feature words from the words extracted by the sentence analysis unit 19. Specifically, the feature word extraction unit 20 weights each of the plurality of words extracted by the sentence analysis unit 19 and sets the word extracted according to the degree of importance as a feature word.
As weighting to words, for example, weighting by part-of-speech of words, weighting using discrimination from other sentences, and the like can be used. In the case of weighting by the part of speech of a word, for example, a rule of setting the weighting of the noun which is the part of speech representing the feature more high, and then setting the weighting of the verb high next is determined in advance. Assign weights to the words. The rules may be determined from heuristics, and for example, nouns or proper noun weighting may be set higher. In addition, in the case of weighting using discriminability with other sentences, for example, IDF (Inverse Document Frequency), which is a relative appearance frequency with words extracted by analyzing various sentences on the Web, is calculated The words are given a weight according to the score.
The feature word registration unit 21 stores the feature word extracted by the feature word extraction unit 20 in the feature word storage unit 33 in association with a sentence.

記憶部30は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
記憶部30は、プログラム記憶部31と、文章記憶部32と、特徴語記憶部33とを備える。
プログラム記憶部31は、各種のプログラムを記憶する記憶領域である。プログラム記憶部31は、表示制御プログラム31aを記憶している。表示制御プログラム31aは、表示制御装置1の制御部10が実行する各種機能を行うためのプログラムである。
The storage unit 30 is a storage area such as a hard disk or a semiconductor memory device for storing programs, data and the like necessary for the control unit 10 to execute various processes.
The storage unit 30 includes a program storage unit 31, a sentence storage unit 32, and a feature word storage unit 33.
The program storage unit 31 is a storage area for storing various programs. The program storage unit 31 stores a display control program 31a. The display control program 31 a is a program for performing various functions executed by the control unit 10 of the display control device 1.

文章記憶部32は、ディスプレイ4に表示させる文章データを記憶する記憶領域である。文章記憶部32は、文章データのみならず、文章データの内容を表す絵や画像のデータを、文章データに関連付けて記憶してもよい。そして、制御部10は、文章データを出力する際に、関連する画像データ等をあわせて出力してもよい。
図3(A)は、文章記憶部32の項目例を示す。文章記憶部32は、文章IDと、文章データとを対応付けて記憶する。文章IDは、文章を識別するための識別情報である。文章データは、例えば、テキストデータである。
特徴語記憶部33は、図3(B)に示すように、文章IDに対応付けてその文章の特徴語を記憶する記憶領域である。特徴語は、1つの文章に対して複数有するものであってよい。また、特徴語記憶部33は、特徴語に対応付けて特徴語の文章内での位置情報を有してもよい。
The sentence storage unit 32 is a storage area for storing sentence data to be displayed on the display 4. The sentence storage unit 32 may store not only sentence data but also picture or image data representing the contents of the sentence data in association with the sentence data. Then, when outputting text data, the control unit 10 may also output related image data and the like.
FIG. 3A shows an example of an item of the sentence storage unit 32. The sentence storage unit 32 associates and stores a sentence ID with sentence data. The sentence ID is identification information for identifying a sentence. The sentence data is, for example, text data.
As shown in FIG. 3B, the feature word storage unit 33 is a storage area that stores feature words of the sentence in association with the sentence ID. A plurality of feature words may be provided for one sentence. In addition, the feature word storage unit 33 may have positional information within the text of the feature word in association with the feature word.

図2(A)に戻り、通信インタフェース部39は、通信ネットワークNを介してディスプレイ4及びカメラ5との間の通信を行うためのインタフェースである。
ここで、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、表示制御装置1は、制御部、記憶部等を備えた情報処理装置であり、コンピュータの概念に含まれる。
Referring back to FIG. 2A, the communication interface unit 39 is an interface for performing communication between the display 4 and the camera 5 via the communication network N.
Here, a computer refers to an information processing apparatus provided with a control unit, a storage device and the like, and the display control apparatus 1 is an information processing apparatus provided with a control unit, a storage unit and the like, and is included in the concept of a computer.

<ディスプレイ4>
ディスプレイ4は、例えば、駅構内の壁や柱等に設けられ、縦が1〜2m程度で、横幅が60〜90cm程度の液晶ディスプレイ等のモニタである。ディスプレイ4は、表示制御装置1から受信した文章データ等を表示する。
<Display 4>
The display 4 is, for example, a monitor such as a liquid crystal display which is provided on a wall, a pillar, or the like in the station yard and has a length of about 1 to 2 m and a width of about 60 to 90 cm. The display 4 displays text data and the like received from the display control device 1.

<カメラ5>
カメラ5は、例えば、ディスプレイ4の上部等に設けられ、ディスプレイ4に対面する位置を撮影する。カメラ5は、ディスプレイ4の近傍にいるユーザ等を撮影するためのものであればよく、設置位置は、ディスプレイ4の上部に限らない。そして、カメラ5は、撮影データを、表示制御装置1に送信する。
<Camera 5>
The camera 5 is provided, for example, on the upper part of the display 4 and the like, and captures a position facing the display 4. The camera 5 may be any one as long as it is for photographing a user or the like near the display 4, and the installation position is not limited to the upper part of the display 4. Then, the camera 5 transmits the shooting data to the display control device 1.

<表示処理>
次に、表示制御装置1での処理について説明する。
図4は、本実施形態に係る表示制御装置1の表示処理を示すフローチャートである。
図5は、本実施形態に係る表示制御装置1による表示処理の具体例を示す図である。
<Display processing>
Next, processing in the display control device 1 will be described.
FIG. 4 is a flowchart showing display processing of the display control device 1 according to the present embodiment.
FIG. 5 is a diagram showing a specific example of display processing by the display control device 1 according to the present embodiment.

この表示処理の前提として、表示制御装置1の制御部10は、常に又は定期的(例えば、10秒おき等)に、カメラ5から撮影データを受信している。
図4のステップS(以下、単に「S」という。)10において、表示制御装置1の制御部10(ユーザ判断部12)は、撮影データの画像からユーザの存在を確認する。具体的には、制御部10は、撮影データの画像を分析し、例えば、人検出や、顔検出等の公知な方法を用いて、画像から人(対象者)を検出する処理を行う。
As a premise of this display process, the control unit 10 of the display control device 1 receives shooting data from the camera 5 constantly or periodically (for example, every 10 seconds).
In step S (hereinafter, simply referred to as "S") 10 in FIG. 4, the control unit 10 (user determination unit 12) of the display control device 1 confirms the presence of the user from the image of the photographing data. Specifically, the control unit 10 analyzes the image of the imaging data, and performs processing of detecting a person (target person) from the image using a known method such as person detection or face detection.

人検出の手法としては、例えば、HOG特徴量を用いるものがある。HOG特徴量を用いた人検出に関しては、「N. Dalal and B.Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886−893, 2005」に記載されている。
また、顔検出の手法としては、例えば、Haar−like特徴を用いるものがある。Haar−like特徴を用いた顔検出に関しては、「P. Viola and M. J. Jones: “Rapid Object Detection Using a Boosted Cascade of Simple Features”,Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp.511−518, (2001).」に記載されている。
As a method of human detection, for example, there is one using HOG feature value. Human detection using HOG features is described in "N. Dalal and B. Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886-893, 2005".
Also, as a face detection method, for example, there is one using a Haar-like feature. For face detection using Haar-like features, see "P. Viola and M. J. Jones:" Rapid Object Detection Using a Boosted Cascade of Simple Features "," Proceedings of the 2001 Computer Society Conference on Computer Vision and Pattern Recognition ". , Pp. 511-518, (2001). ".

S11において、制御部10(ユーザ判断部12)は、撮影データにユーザがいるか否か、つまり、ユーザを検出する処理によって撮影データにユーザを含むか否かを判断する。ユーザを含む場合(S11:YES)には、制御部10は、処理をS12に移す。他方、ユーザを含まない場合(S11:NO)には、制御部10は、処理をS10に移す。ユーザがいない場合には、ユーザを検出するまで、常に又は定期的に受信する撮影データの画像から人検出を行う処理を繰り返す。
S12において、制御部10(視線判断部13)は、ユーザの視線方向を確認する。具体的には、制御部10は、画像から顔画像を検出し、顔の各パーツ(器官)の配置位置に基づいて、顔の向きを判別する。そして、制御部10は、判別した顔の向きをユーザの見ている方向とする。顔の各器官(目、鼻、口等)の位置を求める手法としては、様々な公知の手法があるが、例えば、回帰モデルを用いた顔の器官検出手法を用いることができる。そして、回帰モデルを用いた顔の器官検出手法に関しては、例えば、米国特許出願公開第2014/0185924号明細書に記載されている。
In S11, the control unit 10 (user determination unit 12) determines whether or not there is a user in the imaging data, that is, whether or not the imaging data includes the user in the process of detecting the user. When the user is included (S11: YES), the control unit 10 shifts the processing to S12. On the other hand, when the user is not included (S11: NO), the control unit 10 shifts the process to S10. When the user is not present, the process of detecting a person from the image of the imaging data received constantly or periodically is repeated until the user is detected.
In S12, the control unit 10 (gaze determination unit 13) confirms the gaze direction of the user. Specifically, the control unit 10 detects a face image from the image, and determines the direction of the face based on the arrangement position of each part (organ) of the face. Then, the control unit 10 sets the determined face direction as the direction in which the user is looking. There are various known methods for determining the position of each of the face organs (eyes, nose, mouth, etc.), and for example, a face organ detection method using a regression model can be used. The method for detecting a face organ using a regression model is described, for example, in US Patent Application Publication No. 2014/0185924.

S13において、制御部10(視線判断部13)は、ユーザがディスプレイ4の方向を向いているか否かを判断する。この例では、ディスプレイ4の上方に設置されたカメラ5が撮影した画像に基づく処理であるため、制御部10は、顔の器官が正面に向いている場合に、ユーザがディスプレイ4の方向を向いている場合と判断できる。ユーザがディスプレイ4の方向を向いている場合(S13:YES)には、制御部10は、処理をS14に移す。他方、ユーザがディスプレイ4の方向を向いていない場合(S13:NO)には、制御部10は、処理をS10に移す。
なお、この処理において、制御部10は、ユーザがディスプレイ4の方向を向いていると判断しても、ユーザとディスプレイ4との距離に応じて、本処理としてはNOと判断してもよい。あまり遠くにいるユーザでは、ディスプレイ4に表示される文章をよく見ることができないからである。
In S13, the control unit 10 (line-of-sight determination unit 13) determines whether the user is pointing in the direction of the display 4. In this example, since the processing is based on the image captured by the camera 5 installed above the display 4, the control unit 10 causes the user to face the display 4 when the face organ is facing forward. It can be determined that If the user is pointing in the direction of the display 4 (S13: YES), the control unit 10 shifts the processing to S14. On the other hand, when the user does not face the display 4 (S13: NO), the control unit 10 shifts the process to S10.
In this process, even if the control unit 10 determines that the user is pointing in the direction of the display 4, the control unit 10 may determine NO as this process according to the distance between the user and the display 4. This is because a user who is too far can not often see the sentences displayed on the display 4.

S14において、制御部10(文章出力部14)は、文章データをディスプレイ4に出力する。ディスプレイ4に出力する文章データは、例えば、予め決められている。
S15において、制御部10(強調出力部15)は、出力した文章データに対応した特徴語を、特徴語記憶部33から抽出し、所定の特徴語を強調した強調データを、ディスプレイ4に出力する。ここで、所定の特徴語とは、文章内で最初に出現する特徴語をいう。
In S14, the control unit 10 (text output unit 14) outputs the text data to the display 4. The sentence data to be output to the display 4 is determined in advance, for example.
In S15, the control unit 10 (emphasis output unit 15) extracts a feature word corresponding to the output sentence data from the feature word storage unit 33, and outputs emphasis data in which a predetermined feature word is emphasized to the display 4 . Here, the predetermined feature word refers to a feature word that appears first in a sentence.

S16において、制御部10は、強調データを出力後、切替時間(例えば、1秒等)が経過したか否かを判断する。切替時間とは、特徴語を次の特徴語に切り替えるための時間をいう。切替時間が経過した場合(S16:YES)には、制御部10は、処理をS17に移す。他方、切替時間が経過していない場合(S16:NO)には、制御部10は、本処理に留まる。
S17において、制御部10(ユーザ判断部12、視線判断部13)は、まだユーザがディスプレイ4の方向を向いているか否かを判断する。ユーザがディスプレイ4の方向を向いたままである場合(S17:YES)には、制御部10は、処理をS18に移す。他方、ユーザがディスプレイ4の方向を向いていない場合(S17:NO)には、制御部10は、処理をS20に移す。
In S16, after outputting the emphasis data, the control unit 10 determines whether a switching time (for example, one second) has elapsed. The switching time is a time for switching a feature word to the next feature word. If the switching time has elapsed (S16: YES), the control unit 10 shifts the processing to S17. On the other hand, when the switching time has not elapsed (S16: NO), the control unit 10 remains in this process.
In S17, the control unit 10 (the user determination unit 12, the line-of-sight determination unit 13) determines whether the user still faces the display 4 or not. If the user continues to face the display 4 (S17: YES), the control unit 10 shifts the process to S18. On the other hand, when the user does not face the display 4 (S17: NO), the control unit 10 shifts the processing to S20.

S18において、制御部10(強調出力部15)は、文章内で次に出現する特徴語を強調した強調データを、ディスプレイ4に出力する。その後、制御部10は、処理をS16に移し、強調データをディスプレイ4に順番に出力する処理を繰り返す。
図5は、文章中の特徴語を強調する処理に関する具体例を示す。
まず、制御部10は、文章データをディスプレイ4に出力することで、ディスプレイ4には、文章60が表示される。この例の文章60は、強調表示を説明するための例示であり、実際にディスプレイ4に表示されるものは、ニュース記事や広告の文章である。
In S <b> 18, the control unit 10 (emphasis output unit 15) outputs, to the display 4, emphasis data emphasizing the feature word appearing next in the sentence. Thereafter, the control unit 10 moves the process to S16 and repeats the process of outputting the emphasis data to the display 4 in order.
FIG. 5 shows a specific example of processing for emphasizing feature words in sentences.
First, the control unit 10 outputs sentence data to the display 4, whereby the sentence 60 is displayed on the display 4. The sentence 60 in this example is an example for explaining highlighting, and what is actually displayed on the display 4 is a sentence of a news article or an advertisement.

時間T1において、文章60には、特徴語を示す強調表示領域61aが、ハイライト表示及び異なる文字色によって強調表示されている。ここで、時間T1は、ディスプレイ4に文章60が表示されたと同時であってもよいし、少しの時間(例えば、数秒程度)が経過した後であってもよい。
次に、時間T2において、強調表示する特徴語が切り替えられ、強調表示領域61aの強調表示が解除され、強調表示領域61aに代わり次の特徴語を示す強調表示領域61bが強調表示される。
さらに、時間T3において、強調表示する特徴語がさらに切り替えられ、強調表示領域61bの強調表示が解除され、強調表示領域61bに代わり次の特徴語を示す強調表示領域61cが強調表示される。
At time T1, in the sentence 60, the highlight display area 61a indicating the feature word is highlighted by highlight display and different character colors. Here, the time T1 may be at the same time as the text 60 is displayed on the display 4, or may be after a short time (for example, about several seconds) has elapsed.
Next, at time T2, the feature word to be highlighted is switched, the highlighting of the highlighting area 61a is canceled, and the highlighting area 61b indicating the next feature word is highlighted instead of the highlighting area 61a.
Furthermore, at time T3, the feature word to be highlighted is further switched, the highlighting of the highlighting area 61b is canceled, and the highlighting area 61c indicating the next feature word is highlighted instead of the highlighting area 61b.

このように、表示制御装置1は、時間の経過と共に、特徴語を順番に切り替えて強調してディスプレイ4に表示させることができる。
なお、制御部10は、強調表示をする時間である切替時間を、時間の経過と共に長くするようにしてもよい。また、制御部10は、文章内の特徴語を順番に強調表示し、文章内の最後の特徴語を強調表示した後、文章内の最初の特徴語に戻って強調表示するときに、切替時間を、その前に強調表示した時間よりも長くするようにしてもよい。
As described above, the display control device 1 can switch the feature words in order and emphasize them and display them on the display 4 as time passes.
The control unit 10 may make the switching time, which is the time for highlighting, longer as the time passes. Also, after highlighting the feature words in the sentence in order and highlighting the last feature word in the sentence, the control unit 10 switches back to the first feature word in the sentence and highlights it. May be made longer than the previously highlighted time.

他方、S20において、制御部10は、文章非表示処理を行う。具体的には、制御部10は、ディスプレイ4に対して出力した文章データ及び強調データを表示しないように制御する。その後、制御部10は、処理をS10に移す。
なお、文章非表示処理として、制御部10は、文章内の最後の特徴語を強調表示するまで文章を表示させた後に、ディスプレイ4に対して出力した文章データ及び強調データを表示しないように制御してもよい。
On the other hand, in S20, the control unit 10 performs a sentence non-display process. Specifically, the control unit 10 controls not to display the sentence data and the emphasis data output to the display 4. Thereafter, the control unit 10 shifts the processing to S10.
As the sentence non-display process, the control unit 10 performs control so that the sentence data and the emphasis data output to the display 4 are not displayed after the sentence is displayed until the last feature word in the sentence is highlighted. You may

このように、表示制御装置1は、文章の特徴語を、時間の経過と共に順番に切り替えて強調表示する。よって、文章内の必要最小限の情報を、特徴語を強調表示することで効率的に提示することができる。
また、表示制御装置1は、時間の経過と共に、各特徴語を強調表示させる時間を長くする。そのようにすることで、最初は、強調表示が順番に移動することによって、ユーザのディスプレイ4に対して注目を集めさせると共に、その後は、必要最小限の情報を効率的かつ見やすいように提示することができる。
As described above, the display control device 1 switches the feature words of the sentence in order as time passes and highlights them. Therefore, the necessary minimum information in the sentence can be efficiently presented by highlighting the feature words.
Further, the display control device 1 lengthens the time for highlighting each feature word as time passes. By doing so, initially, the highlighting moves in order to draw attention to the user's display 4 and thereafter present the necessary and minimum information in an efficient and easy-to-see manner. be able to.

<文章処理>
次に、文章から特徴語を抽出する処理について説明する。
図6は、本実施形態に係る表示制御装置1の文章処理を示すフローチャートである。
S30において、表示制御装置1の制御部10(文章処理部18)は、文章データを受け付ける。制御部10は、文章データを、例えば、図示しない表示制御装置1の入力部を介して受け付けてもよいし、文章データを記録した記録媒体から読み取ってもよい。また、制御部10は、例えば、通信インタフェース部39を介して他の外部装置から文章データを受信してもよい。
<Sentence processing>
Next, the process of extracting feature words from sentences will be described.
FIG. 6 is a flowchart showing the text processing of the display control device 1 according to the present embodiment.
In S30, the control unit 10 (text processing unit 18) of the display control device 1 receives text data. The control unit 10 may receive sentence data, for example, via an input unit of the display control device 1 (not shown), or may read it from a recording medium on which the sentence data is recorded. Also, the control unit 10 may receive, for example, sentence data from another external device via the communication interface unit 39.

S31において、制御部10(文章処理部18)は、受け付けた文章データを、文章記憶部32に記憶させる。その際、制御部10は、一意になるように文章IDを決定して、決定した文章IDを文章データに対応付けて記憶する。
S32において、制御部10(文章解析部19)は、文章データを形態素解析する。そして、制御部10は、形態素解析の結果として語を抽出する。
S33において、制御部10(特徴語抽出部20)は、抽出した語に重み付けを付与する。制御部10は、例えば、語の品詞に応じて、重み付けをする。
In S31, the control unit 10 (text processing unit 18) stores the received text data in the text storage unit 32. At this time, the control unit 10 determines the sentence ID so as to be unique, and stores the determined sentence ID in association with the sentence data.
In S32, the control unit 10 (text analysis unit 19) morphologically analyzes text data. Then, the control unit 10 extracts a word as a result of morphological analysis.
In S33, the control unit 10 (feature word extraction unit 20) assigns weights to the extracted words. The control unit 10 weights, for example, according to the part of speech of the word.

S34において、制御部10(特徴語抽出部20)は、重み付けが、例えば、一定以上のものや、重み付けが上位のものを、重要語として、重要度に応じた特徴語を抽出する。
S35において、制御部10(特徴語登録部21)は、S34にて抽出した特徴語を、特徴語記憶部33に記憶させる。具体的には、制御部10は、文章IDに対応付けて、特徴語を記憶する。なお、制御部10は、特徴語の文章内における位置情報(最初から何文字目等)を含めて、特徴語を特徴語記憶部33に記憶させてもよい。その後、制御部10は、本処理を終了する。
In S34, the control unit 10 (feature word extraction unit 20) extracts feature words according to the degree of importance, with, for example, one having a certain weight or more or one having a higher weight as an important word.
In S35, the control unit 10 (feature word registration unit 21) stores the feature word extracted in S34 in the feature word storage unit 33. Specifically, the control unit 10 stores the feature word in association with the sentence ID. Note that the control unit 10 may store the feature word in the feature word storage unit 33 including the position information (the number of characters from the beginning, etc.) in the text of the feature word. Thereafter, the control unit 10 ends the present process.

このように、本実施形態の表示システム100によれば、以下のような効果がある。
(1)表示制御装置1によって、ディスプレイ4に文章を表示させる際、文章の特徴語を強調して順番に表示させるので、人の視線を、特徴語に注視させることができる。その結果、強調表示をした特徴語によって、必要最小限の情報を効率的に提示することができる。
(2)表示制御装置1は、文章の特徴語を、文章を分析して得るため、特徴語は、文章の内容を示す語になり得る。よって、表示制御装置1は、ユーザに全ての文章を読ませずとも、特徴語によって文章の内容が理解できるものを抽出できる。
As described above, according to the display system 100 of the present embodiment, the following effects can be obtained.
(1) When displaying a sentence on the display 4 by the display control device 1, the feature words of the sentence are emphasized and displayed in order, so that the person's gaze can be focused on the feature word. As a result, it is possible to efficiently present the minimum necessary information by the highlighted feature words.
(2) Since the display control device 1 obtains the characteristic word of the sentence by analyzing the sentence, the characteristic word can be a word indicating the content of the sentence. Therefore, the display control apparatus 1 can extract the one in which the content of the sentence can be understood by the feature word without the user reading all the sentences.

(3)表示制御装置1は、特徴語を強調表示する速度を、時間の経過と共に遅くするので、時間の経過と共に、より内容を理解しやすい程度の速さで強調表示ができる。
(4)カメラ5を、ディスプレイ4の近傍に設けることで、ユーザがディスプレイ4の方向を見ているか否かを確認しやすいものにできる。
(3) The display control device 1 reduces the speed of highlighting the characteristic word with the passage of time, so the display control device 1 can perform the highlighting with a speed at which the content can be more easily understood with the passage of time.
(4) By providing the camera 5 in the vicinity of the display 4, it can be easily confirmed whether the user is looking at the direction of the display 4.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。   As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. Further, the effects described in the embodiment only list the most preferable effects arising from the present invention, and the effects according to the present invention are not limited to those described in the embodiment. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be combined and used suitably, detailed description is abbreviate | omitted.

(変形形態)
(1)本実施形態では、ディスプレイとカメラとは、通信ネットワークを介して接続されているものとして説明したが、これに限定されない。例えば、表示制御装置がディスプレイとカメラとの少なくとも一方を備える装置であってもよい。
(2)本実施形態では、ユーザの視線が表示装置の方向である場合に、ディスプレイに文章を表示し、所定の特徴語として、文章に出現する順番に、特徴語を強調表示するものを例に説明したが、これに限定されない。ユーザの視線がディスプレイのどこの位置であるかを判断し、判断した位置の近傍に表示されている特徴語を、最初に強調表示するものであってもよい。そのようにすることで、ユーザは、強調出力部分を自然に見ることができる。さらに、ユーザの視線が強調表示されている位置に向いたら、強調表示の位置を、文章に出現する順番に、次の特徴語に移すようにしてもよい。そのようにすることで、確実にユーザに強調表示を見させることができる。
(Modified form)
(1) In the present embodiment, the display and the camera are described as being connected via a communication network, but the present invention is not limited to this. For example, the display control apparatus may be an apparatus provided with at least one of a display and a camera.
(2) In this embodiment, when the line of sight of the user is in the direction of the display device, a sentence is displayed on the display, and the feature word is highlighted as the predetermined feature word in the order of appearance in the sentence. Although described above, the present invention is not limited thereto. It may be determined at which position on the display the user's line of sight is, and the feature words displayed in the vicinity of the determined position may be highlighted first. By doing so, the user can view the highlight output part naturally. Furthermore, when the line of sight of the user is directed to the highlighted position, the position of the highlighted display may be shifted to the next feature word in the order of appearance in the text. By doing so, it is possible to make the user see highlighting clearly.

(3)本実施形態では、形態素解析を用いて文章を分析し、特徴語を抽出するものを例に説明したが、これに限定されない。他の手法によって文章を分析し、特徴語を抽出してもよく、例えば、意味解析の手法を用いて文章を分析し、特徴語を抽出するものであってもよい。
(4)本実施形態では、1つの特徴語を強調表示する時間について、一律のものを例に説明したが、これに限定されない。特徴語の文字数や各文字の構成(例えば、ひらがな、漢字等であり、漢字であれば、画数を含む。)に応じた時間で強調表示するようにしてもよい。また、1つの特徴語を強調表示する時間は、経験則に基づくものであってもよい。その場合には、特徴語記憶部は、特徴語に対応付けて時間係数を記憶し、制御部は、時間係数に基づいて特徴語を強調表示する時間を決めればよい。
(3) In the present embodiment, sentences are analyzed using morphological analysis to extract feature words. However, the present invention is not limited to this. The sentence may be analyzed by another method to extract feature words. For example, the sentence may be analyzed using a semantic analysis method to extract feature words.
(4) In the present embodiment, the time for highlighting and displaying one feature word has been described as an example, but the present invention is not limited to this. Highlighting may be performed for a time according to the number of characters of the characteristic word and the configuration of each character (for example, hiragana, kanji, etc., and in the case of kanji, including the number of strokes). In addition, the time for highlighting one feature word may be based on a rule of thumb. In that case, the feature word storage unit may store time coefficients in association with the feature words, and the control unit may determine the time for highlighting the feature words based on the time coefficients.

(5)本実施形態では、ユーザの視線がディスプレイの方向を向いていると判断した場合に、ディスプレイに文章を表示するものを例に説明したが、これに限定されない。予め文章がディスプレイに表示された状態であってもよい。そして、予め文章がディスプレイに表示されている場合に、強調表示を行っていてもよい。その場合には、強調表示をする速度は、比較的早いものである方が、通りすがりのユーザが注目しやすいため好ましい。
(6)本実施形態では、ユーザの視線がディスプレイの方向を向いていると判断した場合に、どのようなユーザであっても同じように文章を表示するものを例に説明したが、これに限定されない。例えば、撮影データからユーザの属性(例えば、性別、年齢)を取得し、ユーザの属性に応じて、文章を属性に合ったものにしたり、特徴語を強調表示する際の最初の速度を変えたりしてもよい。
(5) In the present embodiment, when it is determined that the line of sight of the user is directed to the direction of the display, an example in which text is displayed on the display has been described. However, the present invention is not limited thereto. The text may be displayed in advance on the display. And when a sentence is beforehand displayed on a display, highlighting may be performed. In such a case, it is preferable that the speed of highlighting be relatively high, as it is easy for the passing user to notice.
(6) In the present embodiment, when it is determined that the line of sight of the user points in the direction of the display, an example is described in which sentences are displayed in the same manner by any user. It is not limited. For example, the user's attributes (eg, gender, age) are acquired from shooting data, and sentences are matched to the attributes according to the user's attributes, or the initial speed for highlighting the feature word is changed. You may

(7)本実施形態では、特徴語の強調表示として、特徴語の文字色及び特徴語のハイライト色によって強調するものを例に説明したが、これに限定されない。例えば、特徴語の文字の大きさを大きくしたり、太字にしたりするものであってもよい。また、文章全体に対する色の濃淡であってもよく、例えば、最初は、強調文字以外の文章を薄い色で表示し、時間の経過と共に、文章の色を濃い色に変化させるものであってもよい。同様に、最初は、強調文字以外の文章をぼかして表示し、時間の経過と共に、ぼかし度合を低くして文章が読めるようにしてもよい。
(8)本実施形態では、特徴語を1つずつ順番に強調表示するものを例に説明したが、これに限定されない。2以上の特徴語をまとめた語群を強調表示してもよい。その場合であっても、時間の経過と共に、語群を順番に強調表示する。そのようにすることで、意味内容が分かる程度のまとまりを1回で強調表示させることができ、ユーザの理解を深めることができる。
(7) In the present embodiment, as the highlighting of the feature word, the highlighting using the character color of the feature word and the highlight color of the feature word has been described as an example, but the present invention is not limited thereto. For example, the character size of the feature word may be increased or bolded. Also, it may be shades of color to the whole sentence, for example, at first, sentences other than the emphasized character are displayed in light color, and the color of the sentence is changed to dark color with the passage of time. Good. Similarly, at first, sentences other than the emphasized characters may be displayed in a blurred state, and the degree of blurring may be reduced as time passes so that the sentences can be read.
(8) In the present embodiment, an example has been described in which feature words are highlighted in order one by one, but the present invention is not limited to this. A word group in which two or more feature words are grouped may be highlighted. Even in that case, the word groups are highlighted in order as time passes. By doing so, it is possible to highlight at once a group that shows the meaning content, and to deepen the user's understanding.

(9)本実施形態では、駅構内に設けられたディスプレイに文章を表示するものを例に説明したが、これに限定されない。聴衆が見るディスプレイとして、例えば、電車内のディスプレイであってもよいし、街中のディスプレイであってもよい。さらに、聴衆が見るディスプレイに限らず、ユーザの端末等であってもよい。
(10)本実施形態では、文章記憶部と、特徴語記憶部とを備えるものを例に説明したが、これに限定されない。文章データと、特徴語とを対応付けて、1つの記憶部に記憶させてもよい。また、文章データと、特徴語とのうち少なくとも一方を、通信ネットワークを介して接続可能な外部装置に備えてもよい。さらに、文章データを記憶するだけであってもよい。
(9) In this embodiment, although the thing which displays a sentence on the display provided in the station yard was demonstrated to the example, it is not limited to this. The display seen by the audience may be, for example, a display in a train or a display in a city. Furthermore, not only the display viewed by the audience but also the terminal of the user may be used.
(10) In the present embodiment, an example has been described in which a sentence storage unit and a feature word storage unit are provided, but the present invention is not limited to this. Text data and feature words may be associated with each other and stored in one storage unit. Further, at least one of the sentence data and the feature word may be provided in an external device connectable via a communication network. Furthermore, only sentence data may be stored.

1 表示制御装置
4 ディスプレイ
5 カメラ
10 制御部
11 表示処理部
12 ユーザ判断部
13 視線判断部
14 文章出力部
15 強調出力部
18 文章処理部
19 文章解析部
20 特徴語抽出部
21 特徴語登録部
30 記憶部
31a 表示制御プログラム
32 文章記憶部
33 特徴語記憶部
60 文章
61a,61b,61c 強調表示領域
100 表示システム
Reference Signs List 1 display control device 4 display 5 camera 10 control unit 11 display processing unit 12 user determination unit 13 line-of-sight determination unit 14 sentence output unit 15 emphasis output unit 18 sentence processing unit 19 sentence analysis unit 20 feature word extraction unit 21 feature word registration unit 30 Storage unit 31a Display control program 32 Sentence storage unit 33 Feature word storage unit 60 Sentences 61a, 61b, 61c Highlighted display area 100 Display system

Claims (14)

文章を解析して、前記文章の特徴を示す複数の特徴語を抽出する特徴語抽出手段と、
前記文章を、表示装置に表示させる文章表示手段と、
前記特徴語抽出手段により抽出した前記複数の特徴語を時間の経過と共に順番に強調して前記表示装置に表示させる強調表示手段と、
を備える表示制御装置。
Feature word extraction means for analyzing a sentence and extracting a plurality of feature words indicating the features of the sentence;
Text display means for displaying the text on a display device;
Emphasizing display means for emphasizing the plurality of feature words extracted by the feature word extraction means in order as the time passes and displaying them on the display device;
A display control apparatus comprising:
請求項1に記載の表示制御装置において、
前記特徴語抽出手段は、前記文章を形態素解析して得られた単語ごとに重み付けをし、前記単語の重要度に応じて前記特徴語を抽出すること、
を特徴とする表示制御装置。
In the display control device according to claim 1,
The feature word extraction unit weights each word obtained by morphological analysis of the sentence, and extracts the feature word according to the degree of importance of the word.
A display control device characterized by
請求項1又は請求項2に記載の表示制御装置において、
撮影装置の撮影画像から前記表示装置の方向を向いているユーザの存在を判断するユーザ判断手段を備え、
前記文章表示手段は、前記ユーザ判断手段により前記ユーザの存在を判断したことに応じて、前記文章を前記表示装置に表示させること、
を特徴とする表示制御装置。
In the display control device according to claim 1 or 2,
A user determination unit configured to determine the presence of a user facing the direction of the display device from a captured image of the imaging device;
The text display means causes the display device to display the text in response to the user determining means determining the presence of the user.
A display control device characterized by
請求項3に記載の表示制御装置において、
前記ユーザの視線方向を判断する視線判断手段と、
前記視線判断手段により判断した前記視線方向から、前記ユーザが見ている前記表示装置の表示位置を特定する位置特定手段と、
を備え、
前記強調表示手段は、前記位置特定手段により特定された前記表示位置の近傍に有する前記特徴語を最初に強調させ、時間の経過と共に順番に前記複数の特徴語を強調して表示させること、
を特徴とする表示制御装置。
In the display control device according to claim 3,
Gaze determination means for determining the gaze direction of the user;
Position specifying means for specifying the display position of the display device viewed by the user from the direction of the line of sight judged by the line of sight judging means;
Equipped with
The highlighting means first emphasizes the feature words in the vicinity of the display position specified by the position specifying means, and emphasizes and displays the plurality of feature words in order as time passes.
A display control device characterized by
請求項1又は請求項2に記載の表示制御装置において、
撮影装置の撮影画像から前記表示装置の方向を向いているユーザの存在を判断するユーザ判断手段を備え、
前記強調表示手段は、前記ユーザ判断手段により前記ユーザの存在を判断したことに応じて、前記複数の特徴語を時間の経過と共に順番に強調して表示させること、
を特徴とする表示制御装置。
In the display control device according to claim 1 or 2,
A user determination unit configured to determine the presence of a user facing the direction of the display device from a captured image of the imaging device;
The highlighting means emphasizes and displays the plurality of feature words in order as time passes in response to the user determining means determining the presence of the user.
A display control device characterized by
請求項1から請求項5までのいずれかに記載の表示制御装置において、
前記強調表示手段は、前記特徴語を時間の経過と共に順番に強調して表示させる速度を、時間の経過と共に遅く変化させること、
を特徴とする表示制御装置。
In the display control device according to any one of claims 1 to 5,
The highlighting means changes the speed at which the feature words are emphasized and displayed in order with the passage of time, with the passage of time.
A display control device characterized by
請求項1から請求項6までのいずれかに記載の表示制御装置において、
前記強調表示手段は、前記特徴語の文字数及び前記特徴語に含まれる各文字の構成のうち少なくとも一方に応じて、強調して表示させる時間の長さを決定し、決定した長さの時間、前記特徴語を強調して表示させること、
を特徴とする表示制御装置。
The display control device according to any one of claims 1 to 6.
The highlighting means determines the length of time to be emphasized and displayed according to at least one of the number of characters of the feature word and the configuration of each character included in the feature word, and the time of the determined length, Emphasizing and displaying the feature words,
A display control device characterized by
請求項1から請求項7までのいずれかに記載の表示制御装置において、
前記文章に対応付けられた前記複数の特徴語から1以上の特徴語にまとめた複数の語群を生成する語群生成手段を備え、
前記強調表示手段は、前記複数の特徴語を時間の経過と共に順番に強調することに代えて、前記文章のうち前記語群を、時間の経過と共に順番に強調して表示させること、
を特徴とする表示制御装置。
The display control device according to any one of claims 1 to 7.
A word group generation unit configured to generate a plurality of word groups collected into one or more feature words from the plurality of feature words associated with the sentence;
Instead of emphasizing the plurality of feature words sequentially with the passage of time, the emphasizing display means emphasizes and displays the word group in the sentence sequentially with the passage of time;
A display control device characterized by
請求項1から請求項8までのいずれかに記載の表示制御装置において、
前記特徴語抽出手段により抽出された前記複数の特徴語を、前記文章に対応付けて特徴語記憶部に記憶させる登録手段を備えること、
を特徴とする表示制御装置。
The display control device according to any one of claims 1 to 8.
And a registration unit configured to store the plurality of feature words extracted by the feature word extraction unit in the feature word storage unit in association with the sentence.
A display control device characterized by
請求項1から請求項9までのいずれかに記載の表示制御装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the display control device according to any one of claims 1 to 9. 請求項1から請求項9までのいずれかに記載の表示制御装置と、
前記表示制御装置に対して通信可能に接続され、前記文章を表示させる表示装置と、
を備える表示システム。
A display control device according to any one of claims 1 to 9;
A display device communicably connected to the display control device and displaying the text;
A display system comprising:
特徴語抽出手段が、文章を解析して、前記文章の特徴を示す複数の特徴語を抽出するステップと、
文章表示手段が、表示装置に文章を表示させるステップと、
強調表示手段が、前記特徴語抽出手段により抽出した前記複数の特徴語を時間の経過と共に順番に強調して前記表示装置に表示させるステップと、
を含む表示制御方法。
A feature word extraction unit analyzes a sentence to extract a plurality of feature words indicating features of the sentence;
The sentence display means causes the display device to display a sentence;
Emphasizing display means for emphasizing the plurality of feature words extracted by the feature word extraction means in order as time passes and displaying them on the display device;
Display control method including.
文章のデータと、
前記文章の特徴を示す複数の特徴語を強調表示させるデータである強調データと、
を備えた表示データ。
With sentence data,
Emphasis data, which is data for highlighting a plurality of feature words indicating the feature of the sentence;
Display data with.
請求項13に記載の表示データにおいて、
前記強調データは、時間の経過と共に前記複数の特徴語を順番に強調表示させるものである、
表示データ。
In the display data according to claim 13,
The emphasizing data highlights the plurality of feature words in order as time passes.
Display data.
JP2017238495A 2017-12-13 2017-12-13 Display control device, program, display system and display control method Active JP7052328B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017238495A JP7052328B2 (en) 2017-12-13 2017-12-13 Display control device, program, display system and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017238495A JP7052328B2 (en) 2017-12-13 2017-12-13 Display control device, program, display system and display control method

Publications (2)

Publication Number Publication Date
JP2019105751A true JP2019105751A (en) 2019-06-27
JP7052328B2 JP7052328B2 (en) 2022-04-12

Family

ID=67061273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017238495A Active JP7052328B2 (en) 2017-12-13 2017-12-13 Display control device, program, display system and display control method

Country Status (1)

Country Link
JP (1) JP7052328B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145146A1 (en) * 2020-01-16 2021-07-22 株式会社テンクー Document display assistance system, document display assistance method, and program for executing said method
JP2022068817A (en) * 2020-10-22 2022-05-10 ネイバー コーポレーション Method for improving voice recognition rate for voice recording, system, and computer readable recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765005A (en) * 1993-08-24 1995-03-10 Ricoh Co Ltd Document fast read support display device, word processor and digital copying device
JP2001167107A (en) * 1999-12-08 2001-06-22 Sharp Corp Device and method for displaying electronic book
JP2012022589A (en) * 2010-07-16 2012-02-02 Hitachi Ltd Method of supporting selection of commodity
JP2016173803A (en) * 2015-03-18 2016-09-29 大日本印刷株式会社 Sentence display device, program and control method
JP2017037159A (en) * 2015-08-10 2017-02-16 キヤノン株式会社 Image display apparatus, image display method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765005A (en) * 1993-08-24 1995-03-10 Ricoh Co Ltd Document fast read support display device, word processor and digital copying device
JP2001167107A (en) * 1999-12-08 2001-06-22 Sharp Corp Device and method for displaying electronic book
JP2012022589A (en) * 2010-07-16 2012-02-02 Hitachi Ltd Method of supporting selection of commodity
JP2016173803A (en) * 2015-03-18 2016-09-29 大日本印刷株式会社 Sentence display device, program and control method
JP2017037159A (en) * 2015-08-10 2017-02-16 キヤノン株式会社 Image display apparatus, image display method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145146A1 (en) * 2020-01-16 2021-07-22 株式会社テンクー Document display assistance system, document display assistance method, and program for executing said method
JP2021114057A (en) * 2020-01-16 2021-08-05 株式会社テンクー Document display support system and document display support method, and program executing the method
JP2022068817A (en) * 2020-10-22 2022-05-10 ネイバー コーポレーション Method for improving voice recognition rate for voice recording, system, and computer readable recording medium
JP7166370B2 (en) 2020-10-22 2022-11-07 ネイバー コーポレーション Methods, systems, and computer readable recording media for improving speech recognition rates for audio recordings

Also Published As

Publication number Publication date
JP7052328B2 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
CN110968736B (en) Video generation method and device, electronic equipment and storage medium
Hong et al. Video accessibility enhancement for hearing-impaired users
Hong et al. Dynamic captioning: video accessibility enhancement for hearing impairment
CN110446063B (en) Video cover generation method and device and electronic equipment
US11158206B2 (en) Assisting learners based on analytics of in-session cognition
CN116484318B (en) Lecture training feedback method, lecture training feedback device and storage medium
Gökçe et al. Score-level multi cue fusion for sign language recognition
Tripathy et al. Voice for the mute
Haamer et al. Review on emotion recognition databases
US9525841B2 (en) Imaging device for associating image data with shooting condition information
CN112911324B (en) Content display method and device for live broadcast room, server and storage medium
US20120088211A1 (en) Method And System For Acquisition Of Literacy
JP2012083925A (en) Electronic apparatus and method for determining language to be displayed thereon
KR102148021B1 (en) Information search method and apparatus in incidental images incorporating deep learning scene text detection and recognition
JP2017016296A (en) Image display device
JP7052328B2 (en) Display control device, program, display system and display control method
Rajbongshi et al. Bangla optical character recognition and text-to-speech conversion using raspberry Pi
Ouali et al. Architecture for real-time visualizing arabic words with diacritics using augmented reality for visually impaired people
US9055161B2 (en) Text processing method for a digital camera
Jones et al. Vocabulary acquisition for deaf readers using augmented technology
CN108628454B (en) Visual interaction method and system based on virtual human
Kapitanov et al. Slovo: Russian Sign Language Dataset
CN116088675A (en) Virtual image interaction method, related device, equipment, system and medium
JP6794740B2 (en) Presentation material generation device, presentation material generation system, computer program and presentation material generation method
CN114302231A (en) Video processing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R150 Certificate of patent or registration of utility model

Ref document number: 7052328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150