JP7501348B2 - Information output device and information output method - Google Patents

Information output device and information output method Download PDF

Info

Publication number
JP7501348B2
JP7501348B2 JP2020212181A JP2020212181A JP7501348B2 JP 7501348 B2 JP7501348 B2 JP 7501348B2 JP 2020212181 A JP2020212181 A JP 2020212181A JP 2020212181 A JP2020212181 A JP 2020212181A JP 7501348 B2 JP7501348 B2 JP 7501348B2
Authority
JP
Japan
Prior art keywords
book
user
unit
information
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020212181A
Other languages
Japanese (ja)
Other versions
JP2022098662A (en
Inventor
真史 上村
利一 藤井
一夫 野村
達弘 ▲鮭▼川
建 小林
丁珠 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020212181A priority Critical patent/JP7501348B2/en
Publication of JP2022098662A publication Critical patent/JP2022098662A/en
Application granted granted Critical
Publication of JP7501348B2 publication Critical patent/JP7501348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は情報出力装置および情報出力方法に関し、特に詳しくは、電子書籍の内容に基づく適切な音声を出力することができる、情報出力装置および情報出力方法に関する。 The present invention relates to an information output device and an information output method, and more particularly to an information output device and an information output method that can output appropriate audio based on the contents of an electronic book.

電子書籍用端末や、スマートフォン等を用いて電子書籍を閲覧するアプリケーションなどが普及している。このような装置においては、電子書籍として、文字や画像を表示することに加えて、電子書籍の文字を音声として出力したり効果音を出力する装置もある。(例えば、特許文献1) E-book terminals and applications for viewing e-books using smartphones and the like are becoming widespread. In addition to displaying characters and images as e-books, some of these devices also output the characters of e-books as audio and sound effects. (For example, see Patent Document 1)

特開2013-015698号公報JP 2013-015698 A

電子書籍において、ユーザが読んでいる位置に対応した効果音などの音声を出力する場合、ユーザによっては効果音などの音声の効果が感じられない場合や、同一の内容を繰り返し体験することで効果音に対する効果が薄れてくる場合もある。また、ユーザの気分によっても効果の有無は変わってくる。 When sound effects and other audio corresponding to the position where the user is reading are output in an e-book, some users may not feel the effect of the sound effects, or the effect of the sound effects may fade if they experience the same content repeatedly. In addition, the presence or absence of an effect may vary depending on the user's mood.

本発明は、上記問題に鑑み、ユーザに適した音声を出力することができる、情報出力装置および情報出力方法を提供することを目的とする。 In view of the above problems, the present invention aims to provide an information output device and an information output method that can output audio suitable for the user.

本発明に係る情報出力装置は、書籍を特定する書籍特定部と、前記書籍特定部が特定した書籍の内容を表示部に表示させる表示制御部と、前記書籍特定部が特定した書籍の内容および内容の前記表示部における表示位置を示す書籍情報を取得する書籍情報取得部と、前記表示部に対するユーザの視線位置を検出する視線検出部と、前記表示部に対する前記ユーザの視線位置および前記書籍情報に基づき、前記ユーザが前記書籍を読んでいる箇所を特定する特定部と、前記ユーザの生体情報を取得して前記ユーザの感情を分析する感情分析部と、前記特定部で特定した前記ユーザが前記書籍を読んでいる箇所に対応する音声を、前記感情分析部が分析した前記ユーザの感情に基づいて選択する音声選択制御部と、前記音声選択制御部が選択した音声を出力する音声出力制御部と、を備える。 The information output device according to the present invention includes a book identification unit that identifies a book, a display control unit that causes the contents of the book identified by the book identification unit to be displayed on a display unit, a book information acquisition unit that acquires book information indicating the contents of the book identified by the book identification unit and the display position of the contents on the display unit, a gaze detection unit that detects the gaze position of a user relative to the display unit, an identification unit that identifies the part of the book where the user is reading based on the gaze position of the user relative to the display unit and the book information, a sentiment analysis unit that acquires biometric information of the user and analyzes the emotions of the user, a voice selection control unit that selects a voice corresponding to the part of the book where the user is reading identified by the identification unit based on the emotions of the user analyzed by the sentiment analysis unit, and a voice output control unit that outputs the voice selected by the voice selection control unit.

本発明に係る情報出力方法は、書籍を特定するステップと、特定した書籍の内容を表示部に表示させるステップと、特定した書籍の内容および内容の前記表示部における表示位置を示す書籍情報を取得するステップと、前記表示部に対するユーザの視線位置を検出するステップと、前記表示部に対する前記ユーザの視線位置および前記書籍情報に基づき、前記ユーザが前記書籍を読んでいる箇所を特定するステップと、前記ユーザの生体情報を取得して前記ユーザの感情を分析するステップと、前記ユーザが前記書籍を読んでいる箇所に対応する音声を、前記ユーザの感情に基づいて選択するステップと、選択した音声を出力するステップと、を情報出力装置が実行する。 The information output method of the present invention includes a step of identifying a book, a step of displaying the contents of the identified book on a display unit, a step of acquiring book information indicating the contents of the identified book and the display position of the contents on the display unit, a step of detecting a user's gaze position with respect to the display unit, a step of identifying the part of the book where the user is reading based on the gaze position of the user with respect to the display unit and the book information, a step of acquiring biometric information of the user and analyzing the user's emotions, a step of selecting a sound corresponding to the part of the book where the user is reading based on the user's emotions, and a step of outputting the selected sound, performed by an information output device.

本発明によれば、ユーザに適した音声を出力することができる。 According to the present invention, it is possible to output audio suitable for the user.

本発明の第1実施形態に係る情報出力システムの構成を示す概念図である。1 is a conceptual diagram showing a configuration of an information output system according to a first embodiment of the present invention. 本発明の第1実施形態に係る情報出力装置の構成を示すブロック図である。1 is a block diagram showing a configuration of an information output device according to a first embodiment of the present invention. 本発明の第1実施形態に係る生体情報取得装置の構成を示すブロック図である。1 is a block diagram showing a configuration of a biometric information acquisition device according to a first embodiment of the present invention. 本発明の第1実施形態に係る情報出力装置の処理例を示すフローチャートである。4 is a flowchart showing an example of processing of the information output device according to the first embodiment of the present invention. 本発明の第2実施形態に係る情報出力装置の処理例を示すフローチャートである。10 is a flowchart showing an example of processing of an information output device according to a second embodiment of the present invention. 本発明の第3実施形態に係る情報出力装置の処理例を示すフローチャートである。13 is a flowchart showing an example of processing of an information output device according to a third embodiment of the present invention.

以下、図面を参照して、本発明の実施の形態について説明する。本発明に係る情報出力装置は、電子書籍端末、スマートフォン、タブレット端末、パーソナルコンピュータなど、ユーザが電子書籍を閲覧できる任意の装置が対象である。また、本発明に係る情報出力システムは、情報出力装置に加えて、ユーザの生体情報を取得可能な装置が含まれる。具体例としては、図1に示すように、情報出力装置およびユーザの生体情報を取得可能であり、情報出力装置が出力する音声を出力可能なイヤフォンなどとの組み合わせで構成される。また、本発明は、情報出力装置がユーザの生体情報を取得可能であれば、情報出力装置のみの構成で成立する。また、本発明に係る情報出力システムは、ユーザの生体情報を取得するデバイスとして、スマートウォッチなどを組み合わせてもよい。本実施形態においては、スマートフォンとイヤフォンの組み合わせで実現される例として説明するが、以下の実施形態により本発明が限定されるものではない。 The following describes an embodiment of the present invention with reference to the drawings. The information output device according to the present invention is any device that allows a user to read an e-book, such as an e-book terminal, a smartphone, a tablet terminal, or a personal computer. The information output system according to the present invention includes a device capable of acquiring biometric information of a user in addition to the information output device. As a specific example, as shown in FIG. 1, the information output system is configured with a combination of an information output device and earphones capable of acquiring biometric information of a user and outputting the sound output by the information output device. The present invention can be realized with only the information output device as long as the information output device can acquire biometric information of a user. The information output system according to the present invention may also be combined with a smartwatch or the like as a device for acquiring biometric information of a user. In this embodiment, the present invention is described as an example realized by a combination of a smartphone and earphones, but the present invention is not limited to the following embodiment.

以下、図1から図3を参照して、本発明の第1実施形態を説明する。図1は、情報出力装置10であるスマートフォンと、生体情報取得装置20であるイヤフォンとの組み合わせによる情報出力システム1を示した概念図である。情報出力装置10と生体情報取得装置20は、有線または無線で接続されている。図1における情報出力装置10は、書籍情報を提示する提示面としての表示部13と、ユーザの視線検出を行うためにユーザの顔を撮影する撮像部12が備えられている。生体情報取得装置20であるイヤフォンは、一般的に右耳用と左耳用の一対で構成されるが、説明を容易とするために右耳用または左耳用のいずれか一方として説明する。 Below, a first embodiment of the present invention will be described with reference to Figs. 1 to 3. Fig. 1 is a conceptual diagram showing an information output system 1 that combines a smartphone as an information output device 10 and earphones as a biometric information acquisition device 20. The information output device 10 and the biometric information acquisition device 20 are connected by wire or wirelessly. The information output device 10 in Fig. 1 is equipped with a display unit 13 as a presentation surface for presenting book information, and an imaging unit 12 that captures an image of the user's face to detect the user's line of sight. The earphones as the biometric information acquisition device 20 are generally configured as a pair, one for the right ear and one for the left ear, but for ease of explanation, the earphones will be described as being for either the right ear or the left ear.

図2は、本発明の第1実施形態に係る情報出力システム1を構成する情報出力装置10としてのスマートフォンの構成を示すブロック図であり、図3は、本発明の第1実施形態に係る情報出力システム1を構成する生体情報取得装置20としてのイヤフォンの構成を示すブロック図である。 Figure 2 is a block diagram showing the configuration of a smartphone as the information output device 10 constituting the information output system 1 according to the first embodiment of the present invention, and Figure 3 is a block diagram showing the configuration of earphones as the biometric information acquisition device 20 constituting the information output system 1 according to the first embodiment of the present invention.

図2および図3に図示した構成は、本発明の実現に必要な構成を中心に記載しており、図示している構成以外にも様々な構成要素を含む。 The configurations shown in Figures 2 and 3 are described with a focus on the configuration necessary to realize the present invention, and include various other components in addition to those shown.

図2において、情報出力装置10であるスマートフォンは、制御部50、書籍DB部11、撮像部12、表示部13および通信部14を備える。 In FIG. 2, the smartphone, which is the information output device 10, includes a control unit 50, a book DB unit 11, an imaging unit 12, a display unit 13, and a communication unit 14.

書籍DB部11は、情報出力装置10で利用可能な書籍情報を記憶しているデータベースである。書籍DB部11は、後述する通信部14を介して通信可能な外部サーバに構築されているデータベースであってもよい。情報出力装置10で利用可能な書籍情報とは、情報出力装置10のユーザが購入した電子書籍、無料で利用可能な電子書籍などである。また、電子書籍は、文字情報としての書籍に限らず、画像で構成される電子書籍であってもよい。書籍DB部11は、情報出力装置10に備えられる記憶部、または情報出力装置10が利用できる記憶部に備えられている。 The book DB unit 11 is a database that stores book information that can be used by the information output device 10. The book DB unit 11 may be a database built in an external server that can communicate via the communication unit 14 described below. Book information that can be used by the information output device 10 includes e-books purchased by the user of the information output device 10 and e-books that can be used free of charge. In addition, e-books are not limited to books as text information, and may be e-books composed of images. The book DB unit 11 is provided in a memory unit provided in the information output device 10 or a memory unit that can be used by the information output device 10.

書籍DB部11に含まれる書籍情報は、電子書籍に対する内容および内容の表示位置が含まれる。電子書籍の内容の表示位置とは、電子書籍の内容を示す文字情報などが表示部13に表示される位置であり、表示されるページ毎に、例えば表示部13の表示画面におけるX-Y座標が対応付けられている。電子書籍の内容の表示位置は、文字毎に表示される位置が対応付けられていてもよく、単語や画像毎に表示される位置が対応付けられていてもよい。 The book information contained in the book DB unit 11 includes the contents of the electronic book and the display position of the contents. The display position of the contents of the electronic book is the position where character information indicating the contents of the electronic book is displayed on the display unit 13, and for example, X-Y coordinates on the display screen of the display unit 13 are associated with each displayed page. The display position of the contents of the electronic book may be associated with the position where each character is displayed, or may be associated with the position where each word or image is displayed.

また、書籍DB部11に含まれる書籍情報は、電子書籍の内容に対する音声情報が含まれる。電子書籍の内容に対応する音声情報とは、例えば、表示部13に表示されている箇所の電子書籍の内容が、興奮するような内容や喜びに共感するような内容である場合、そのような感情に適した音楽や効果音などの音声情報である。音声情報には、悲しみや恐怖に対応する音声情報も含まれる。 The book information contained in the book DB unit 11 also includes audio information corresponding to the contents of the e-book. For example, if the content of the e-book displayed on the display unit 13 is exciting or joyful, audio information such as music or sound effects that is appropriate for such emotions is included. The audio information also includes audio information corresponding to sadness or fear.

さらに、書籍DB部11に含まれる書籍情報は、電子書籍の内容に対する想定感情情報も含まれる。電子書籍の内容に対応する想定感情情報とは、例えば、表示部13に表示されている箇所の電子書籍の内容が、興奮するような内容や喜びに共感するような内容である場合、その箇所を読んだユーザも同様な感情となることを想定することが示された情報である。想定感情情報には、悲しみや恐怖に対応する情報も含まれる。 Furthermore, the book information contained in the book DB unit 11 also includes information about expected emotions in relation to the contents of the e-book. Expected emotion information corresponding to the contents of the e-book is, for example, information indicating that if the content of the e-book at a portion displayed on the display unit 13 is exciting or evocative of joy, the user who reads that portion is expected to feel similar emotions. Expected emotion information also includes information corresponding to sadness or fear.

撮像部12は、例えば可視光カメラまたは赤外光カメラである。撮像部12は、可視光カメラと赤外光カメラの双方を備えていてもよい。また、単一の撮像素子に、可視光と赤外光とを受光可能な構成であってもよい。撮像部12は、表示部13に表示される電子書籍を読んでいるユーザの顔を撮影する。このため、撮像部12は、表示部13に対向する方向を撮影可能な向きに配置されている。撮像部12は、例えば、情報出力装置10の表示部13の上部に配置されており、情報出力装置10であるスマートフォンの所謂インカメラである。撮像部12は、撮影制御部53により映像の撮影が制御され、撮影した映像データを撮影制御部53に出力する。撮像部12が赤外光カメラである場合は、撮像部12の撮影方向に赤外光を照射する光源も含まれる。 The imaging unit 12 is, for example, a visible light camera or an infrared light camera. The imaging unit 12 may include both a visible light camera and an infrared light camera. Also, a single imaging element may be configured to receive visible light and infrared light. The imaging unit 12 captures the face of a user reading an electronic book displayed on the display unit 13. For this reason, the imaging unit 12 is arranged in a direction that allows the imaging unit 12 to capture a direction facing the display unit 13. The imaging unit 12 is arranged, for example, above the display unit 13 of the information output device 10, and is a so-called in-camera of a smartphone that is the information output device 10. The imaging unit 12 is controlled by the imaging control unit 53 to capture video, and outputs the captured video data to the imaging control unit 53. When the imaging unit 12 is an infrared light camera, it also includes a light source that irradiates infrared light in the shooting direction of the imaging unit 12.

表示部13は、電子書籍を含む様々な情報を表示する。表示部13は、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイ、電子ペーパーなどで構成されるディスプレイである。表示部13は、表示制御部58によって情報の表示が制御される。 The display unit 13 displays various information including electronic books. The display unit 13 is a display configured with a liquid crystal display (LCD), an organic electroluminescence (EL) display, electronic paper, or the like. The display control unit 58 controls the display of information on the display unit 13.

通信部14は、情報出力装置10が他の装置との間で無線通信を行う通信ユニットであり、通信制御部59の制御によって通信を行う。通信部14は、電話回線や、Wi-Fi(登録商標)、Bluetooth(登録商標)などの通信方式により、他の装置との間で無線通信を行う。情報出力装置10がスマートフォンである場合は、通信部14として、電話回線、Wi-FiおよびBluetoothの通信ユニットを各々備える。 The communication unit 14 is a communication unit through which the information output device 10 performs wireless communication with other devices, and performs communication under the control of the communication control unit 59. The communication unit 14 performs wireless communication with other devices using a communication method such as a telephone line, Wi-Fi (registered trademark), or Bluetooth (registered trademark). When the information output device 10 is a smartphone, the communication unit 14 is provided with communication units for the telephone line, Wi-Fi, and Bluetooth, respectively.

制御部50は、情報出力装置10の各部の動作を制御する、所謂、情報出力制御装置である。制御部50は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、図示しない記憶部に記憶されたプログラムがRAM等を作業領域として実行されることにより、各種機能が実現される。このため、制御部50は、実施形態に係る情報出力方法を実行する。また、制御部50は、本発明に係るプログラムを動作させるコンピュータである。制御部50は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部50は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。 The control unit 50 is a so-called information output control device that controls the operation of each part of the information output device 10. The control unit 50 realizes various functions by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit) executing a program stored in a storage unit (not shown) using a RAM or the like as a working area. Therefore, the control unit 50 executes the information output method according to the embodiment. The control unit 50 is also a computer that runs the program according to the present invention. The control unit 50 may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 50 may be realized by a combination of hardware and software.

制御部50は、その構成および機能として、書籍情報取得部51、書籍特定部52、撮影制御部53、視線検出部54、特定部55、感情分析部56、音声選択制御部57、表示制御部58、および通信制御部59として機能する構成を少なくとも備える。 The control unit 50 has at least the following configurations and functions: a book information acquisition unit 51, a book identification unit 52, a photography control unit 53, a gaze detection unit 54, an identification unit 55, an emotion analysis unit 56, an audio selection control unit 57, a display control unit 58, and a communication control unit 59.

書籍情報取得部51は、書籍DB部11から書籍特定部52が特定した電子書籍の書籍情報を取得する。書籍情報取得部51は、取得した書籍情報を表示制御部58に出力する。また、書籍情報取得部51は、取得した書籍情報に電子書籍の内容に対応する音声情報を含む場合は、表示制御部58が、音声情報が対応付けられている電子書籍の内容を表示する際に、対応する音声情報が選択されるように、音声選択制御部57に出力する。また、書籍情報取得部51は、取得した書籍情報に想定感情情報が含まれている場合は、感情分析部56が分析したユーザの感情と比較するために、音声選択制御部57に出力する。 The book information acquisition unit 51 acquires book information of the e-book identified by the book identification unit 52 from the book DB unit 11. The book information acquisition unit 51 outputs the acquired book information to the display control unit 58. Furthermore, if the acquired book information includes audio information corresponding to the contents of the e-book, the book information acquisition unit 51 outputs it to the audio selection control unit 57 so that the corresponding audio information is selected when the display control unit 58 displays the contents of the e-book to which the audio information is associated. Furthermore, if the acquired book information includes expected emotion information, the book information acquisition unit 51 outputs it to the audio selection control unit 57 to compare it with the user's emotion analyzed by the emotion analysis unit 56.

書籍特定部52は、電子書籍を特定する。より詳しくは、書籍特定部52は、ユーザが表示しようとしている電子書籍を特定する。または、書籍特定部52は、表示部13に表示されている電子書籍を特定する。書籍特定部52は、例えば、図示しない操作部を介したユーザ操作に基づいて選択された電子書籍や表示された電子書籍を特定する。書籍特定部52は、電子書籍を特定した情報を、書籍情報取得部51に出力する。 The book identification unit 52 identifies an e-book. More specifically, the book identification unit 52 identifies an e-book that the user is trying to display. Or, the book identification unit 52 identifies an e-book that is displayed on the display unit 13. The book identification unit 52 identifies, for example, an e-book selected or a displayed e-book based on a user operation via an operation unit (not shown). The book identification unit 52 outputs information identifying the e-book to the book information acquisition unit 51.

撮影制御部53は、撮像部12による映像の撮影を制御し、撮像部12が撮影した映像データを取得する。撮影制御部53は、取得した映像データを視線検出部54に出力する。また、撮像部12が撮影した映像データを、ユーザの生体検出に用いる場合は、映像データを感情分析部56に出力する。 The shooting control unit 53 controls the shooting of video by the imaging unit 12 and acquires the video data shot by the imaging unit 12. The shooting control unit 53 outputs the acquired video data to the gaze detection unit 54. Furthermore, when the video data shot by the imaging unit 12 is used for detecting the liveness of the user, the shooting control unit 53 outputs the video data to the emotion analysis unit 56.

視線検出部54は、撮像部12が撮影した映像データに基づいて、ユーザの視線の方向を検出する。視線を検出する方法は限定されないが、例えば、ユーザの顔、特に両目を赤外光で撮影した映像から角膜反射を検出することでユーザの視線を検出する。視線検出部54は、ユーザの目の開閉を検出してもよい。視線検出部54は、検出した視線の向きを示す情報を、特定部55に出力する。 The gaze detection unit 54 detects the direction of the user's gaze based on the video data captured by the imaging unit 12. There are no limitations on the method of detecting the gaze, but for example, the user's gaze is detected by detecting the corneal reflex from an image captured of the user's face, particularly both eyes, using infrared light. The gaze detection unit 54 may also detect whether the user's eyes are open or closed. The gaze detection unit 54 outputs information indicating the detected direction of the gaze to the identification unit 55.

特定部55は、ユーザの視線位置および書籍情報に基づき、表示部13に表示されている電子書籍の内容に対する、ユーザが電子書籍を見ている箇所を特定する。特定部55は、表示部13に表示されている電子書籍の内容からページ番号を特定し、ユーザの視線位置に対応する電子書籍のページ番号、行数、行頭からの文字数、または、段落、文字、単語などを特定する。特定部55は、ユーザの視線位置や目の開閉に基づき、ユーザが電子書籍を読んでいるか否かを判断してもよい。 The identification unit 55 identifies the part of the electronic book displayed on the display unit 13 at which the user is looking, based on the user's gaze position and the book information. The identification unit 55 identifies a page number from the content of the electronic book displayed on the display unit 13, and identifies the page number, number of lines, number of characters from the beginning of the line, or a paragraph, character, word, etc., of the electronic book that corresponds to the user's gaze position. The identification unit 55 may determine whether the user is reading an electronic book, based on the user's gaze position and whether the user's eyes are open or closed.

感情分析部56は、通信制御部59が通信部14を介して生体情報取得装置20から取得した生体情報を取得して、ユーザの感情の分析を行う。感情分析部56は、撮影制御部53が取得した撮像部12が撮影した映像データを生体情報として取得し、ユーザの感情の分析を行ってもよい。或いは、生体情報取得装置20から取得した生体情報と、映像データとして取得した生体情報とを組み合わせて、ユーザの感情の分析を行ってもよい。感情分析部56がイヤフォンとしての生体情報取得装置20から取得する生体情報の例として、心拍情報、体温情報、肌導電率などがある。また、感情分析部56が映像データとして取得する生体情報の例として、心拍情報、表情などがある。さらに、生体情報取得装置20にスマートウォッチを用いた場合は、心拍情報に加えて、血圧情報などが取得可能である。これらの様々な生体情報も、ユーザの感情の分析に利用可能である。 The emotion analysis unit 56 acquires biometric information acquired by the communication control unit 59 from the biometric information acquisition device 20 via the communication unit 14, and analyzes the user's emotions. The emotion analysis unit 56 may acquire video data captured by the imaging unit 12 acquired by the imaging control unit 53 as biometric information, and analyze the user's emotions. Alternatively, the emotion analysis unit 56 may combine the biometric information acquired from the biometric information acquisition device 20 and the biometric information acquired as video data to analyze the user's emotions. Examples of biometric information acquired by the emotion analysis unit 56 from the biometric information acquisition device 20 as earphones include heart rate information, body temperature information, and skin conductivity. Examples of biometric information acquired by the emotion analysis unit 56 as video data include heart rate information and facial expressions. Furthermore, when a smart watch is used as the biometric information acquisition device 20, in addition to heart rate information, blood pressure information and the like can be acquired. These various types of biometric information can also be used to analyze the user's emotions.

感情分析部56は、生体情報取得装置20から取得する生体情報がユーザの心拍情報である場合、心拍変動に基づいて推定されるユーザの自律神経の活動状態から、ユーザが興奮や喜びの状態であるか、または、ストレスや憂鬱な状態であるか、さらには、リラックスしている状態であるかなどを分析する。感情分析部56は、取得した生体情報を、通信制御部59の制御によって通信部14を介して、外部の感情分析用のサーバに送信し、感情分析用のサーバによる分析結果を取得してもよい。感情分析部56によるユーザの感情の分析は、他のセンサによる測定結果や映像データに基づく分析を組み合わせてもよく、一般的には、AIによる分析が行われる。 When the biometric information acquired from the biometric information acquisition device 20 is the user's heart rate information, the emotion analysis unit 56 analyzes whether the user is in a state of excitement or joy, or in a state of stress or depression, or even in a state of relaxation, from the activity state of the user's autonomic nerves estimated based on the heart rate variability. The emotion analysis unit 56 may transmit the acquired biometric information to an external emotion analysis server via the communication unit 14 under the control of the communication control unit 59, and acquire the analysis results from the emotion analysis server. The analysis of the user's emotions by the emotion analysis unit 56 may be combined with analysis based on the results of measurements by other sensors and video data, and is generally performed using AI.

音声選択制御部57は、書籍情報取得部51が取得した書籍情報としての音声情報を選択する。音声選択制御部57は、特定部55が特定したユーザが電子書籍を読んでいる箇所に対応する音声情報を選択する。また、音声選択制御部57は、感情分析部56が分析したユーザの感情に基づいて、音声を選択する。また、音声選択制御部57は、感情分析部56が分析したユーザの感情に基づいて、音声を変化させる。音声の変化とは、音声の種類、音量、音程などを変化させることである。 The audio selection control unit 57 selects audio information as book information acquired by the book information acquisition unit 51. The audio selection control unit 57 selects audio information corresponding to the part of the e-book where the user identified by the identification unit 55 is reading. The audio selection control unit 57 also selects audio based on the user's emotions analyzed by the emotion analysis unit 56. The audio selection control unit 57 also changes the audio based on the user's emotions analyzed by the emotion analysis unit 56. Changing the audio means changing the type, volume, pitch, etc. of the audio.

また、音声選択制御部57は、書籍情報取得部51が書籍情報としてさらに取得した想定感情情報と、感情分析部56が分析したユーザの感情とを比較し、その差異などに基づいて、音声の選択し、音声を変化させる。音声選択制御部57は、例えば、ユーザが電子書籍を読んでいる箇所に対応する想定感情情報が、興奮や喜びの状態となることが想定されることを示している場合に、ユーザの感情が想定感情情報に示されているような感情を示していない場合や、ユーザの感情が想定感情情報に示されているようなレベルの感情を示していない場合に、興奮や喜びの状態を喚起させるような音声を選択する。また、予めそのような音声が選択されている場合は、音量が大きくなるように変化させたり、さらに興奮や喜びの状態を喚起させるような音声を選択する。 The voice selection control unit 57 also compares the expected emotion information further acquired as book information by the book information acquisition unit 51 with the user's emotion analyzed by the emotion analysis unit 56, and selects and changes the voice based on the difference between the two. For example, when the expected emotion information corresponding to the part of the e-book where the user is reading indicates that the user is expected to be in a state of excitement or joy, the voice selection control unit 57 selects a voice that evokes a state of excitement or joy when the user's emotion does not indicate the emotion indicated in the expected emotion information or when the user's emotion does not indicate the level of emotion indicated in the expected emotion information. When such a voice has been selected in advance, the volume is increased or a voice that further evokes a state of excitement or joy is selected.

また、音声選択制御部57は、例えば、ユーザが電子書籍を読んでいる箇所に対応する想定感情情報が、恐怖感のある状態となることが想定されることを示している場合に、ユーザの感情が想定感情情報に示されているような感情を示していない場合や、ユーザの感情が想定感情情報に示されているようなレベルの感情を示していない場合に、恐怖感を喚起させるような音声を選択する。また、予めそのような音声が選択されている場合は、音量が大きくなるように変化させたり、さらに恐怖感を喚起させるような音声を選択する。 In addition, for example, when the expected emotion information corresponding to the part of the e-book where the user is reading indicates that the user is expected to be in a frightening state, if the user's emotion does not indicate the emotion indicated in the expected emotion information, or if the user's emotion does not indicate the level of emotion indicated in the expected emotion information, the voice selection control unit 57 selects a voice that evokes a sense of fear. In addition, if such a voice has been selected in advance, the volume is increased, or a voice that evokes even more fear is selected.

表示制御部58は、書籍情報取得部51が取得した電子書籍の書籍情報を表示部13に表示させる。表示制御部58は、書籍情報取得部51が取得した書籍情報から、表示部13に電子書籍の内容を表示させる。表示制御部58は、図示しない操作部を介したユーザ操作に基づいて、表示部13において書籍のページをめくったり、書籍を閉じたりするような表示を行う。 The display control unit 58 causes the display unit 13 to display the book information of the e-book acquired by the book information acquisition unit 51. The display control unit 58 causes the display unit 13 to display the contents of the e-book from the book information acquired by the book information acquisition unit 51. The display control unit 58 performs a display on the display unit 13 such as turning the pages of the book or closing the book based on a user operation via an operation unit (not shown).

通信制御部59は、情報出力装置10が他の装置との間で無線通信を行い、様々なデータの送受信の制御を行う。通信制御部59は、複数の通信方式を通信対象となる装置に合わせて使い分ける制御も行う。通信制御部59は、Bluetooth等の通信方式を用いて、生体情報取得装置20との通信を確立し、生体情報取得装置20に対してユーザの生体情報の要求を行い、生体情報取得装置20からユーザの生体情報を取得する。また、通信制御部59は、電話回線や、Wi-Fi等の通信方式を用いて、外部サーバ等の外部装置と情報の送受信を行う。通信制御部59は、イヤフォンとしての生体情報取得装置20に、音声情報を出力するため、情報出力装置10における音声出力制御部としての機能を有する。 The communication control unit 59 controls the wireless communication between the information output device 10 and other devices and the transmission and reception of various data. The communication control unit 59 also controls the use of multiple communication methods depending on the device with which communication is to be performed. The communication control unit 59 establishes communication with the biometric information acquisition device 20 using a communication method such as Bluetooth, requests the biometric information of the user from the biometric information acquisition device 20, and acquires the biometric information of the user from the biometric information acquisition device 20. The communication control unit 59 also transmits and receives information to and from external devices such as external servers using a communication method such as a telephone line or Wi-Fi. The communication control unit 59 functions as an audio output control unit in the information output device 10 to output audio information to the biometric information acquisition device 20 as earphones.

図3において、生体情報取得装置20であるイヤフォンは、制御部70、生体センサ21、通信部22および音声出力部23を備える。 In FIG. 3, the earphones, which are the biometric information acquisition device 20, include a control unit 70, a biometric sensor 21, a communication unit 22, and an audio output unit 23.

制御部70は、各種データ処理を行う単数または複数のCPU(Central Processing Unit)、バッファメモリなどで構成され、プログラムによって様々な処理を実行する。制御部70は、その構成および機能として、生体情報取得部71、通信制御部72、および音声出力制御部73として機能する構成を少なくとも備える。 The control unit 70 is composed of one or more CPUs (Central Processing Units) that perform various data processing, a buffer memory, etc., and executes various processes according to programs. The control unit 70 has at least the configuration and functions to function as a biometric information acquisition unit 71, a communication control unit 72, and an audio output control unit 73.

生体センサ21は、ユーザの外耳など皮膚に接触するように配置された各種センサである。生体センサ21は、例えば、心拍センサ、体温センサ、肌導電率センサなどである。生体センサ21は、測定した生体情報を生体情報取得部71に出力する。生体センサ21は、イヤフォンを構成するイヤーピースなど、ユーザの肌に直接触れる位置に配置される。 The biosensor 21 is a variety of sensors that are arranged to come into contact with the skin, such as the user's outer ear. The biosensor 21 is, for example, a heart rate sensor, a body temperature sensor, a skin conductivity sensor, etc. The biosensor 21 outputs the measured bioinformation to the bioinformation acquisition unit 71. The biosensor 21 is arranged in a position that comes into direct contact with the user's skin, such as an earpiece that constitutes an earphone.

通信部22は、生体情報取得装置20が情報出力装置10などの他の装置との間で無線通信を行う通信ユニットであり、制御部70の通信制御部72の制御によって通信を行う。通信部22は、Bluetoothなどの近距離の通信方式により、他の装置との間で無線通信を行う。 The communication unit 22 is a communication unit through which the biometric information acquisition device 20 performs wireless communication with other devices such as the information output device 10, and performs communication under the control of the communication control unit 72 of the control unit 70. The communication unit 22 performs wireless communication with other devices using a short-range communication method such as Bluetooth.

音声出力部23は、音声出力制御部73から出力された音声信号を増幅し、ユーザが音声を聴取できるように、空気振動に変換する。音声出力部23は所謂アンプと振動ユニットである。 The audio output unit 23 amplifies the audio signal output from the audio output control unit 73 and converts it into air vibrations so that the user can hear the sound. The audio output unit 23 is what is known as an amplifier and vibration unit.

生体情報取得部71は、生体センサ21が検出した生体情報を示すデータを取得し、通信制御部72に出力する。 The biometric information acquisition unit 71 acquires data indicating the biometric information detected by the biometric sensor 21 and outputs the data to the communication control unit 72.

通信制御部72は、情報出力装置10との間で無線通信を行い、様々なデータを授受する制御を行う。通信制御部72は、情報出力装置10から音声情報を受信し、情報出力装置10に生体情報を示すデータを送信する。 The communication control unit 72 performs wireless communication with the information output device 10 and controls the exchange of various data. The communication control unit 72 receives audio information from the information output device 10 and transmits data indicating biometric information to the information output device 10.

音声出力制御部73は、通信部22を介して取得した音声情報を音声出力部23に出力する制御を行う。音声出力制御部73は、通信部22を介して取得したデジタル信号による音声情報をアナログ信号による音声情報に変換するD/A(Digital/Analog)変換機能を備える。 The audio output control unit 73 controls the output of audio information acquired via the communication unit 22 to the audio output unit 23. The audio output control unit 73 has a D/A (Digital/Analog) conversion function that converts audio information in the form of a digital signal acquired via the communication unit 22 into audio information in the form of an analog signal.

次に、図4を用いて、本発明に係る情報出力装置10が実行する処理の流れについて説明する。情報出力装置10が実行する情報出力方法は、情報出力制御装置として動作するコンピュータとしての制御部50、または制御部50および制御部70が、プログラムに基づき実行する。 Next, the flow of processing executed by the information output device 10 according to the present invention will be described with reference to FIG. 4. The information output method executed by the information output device 10 is executed based on a program by the control unit 50, which is a computer operating as an information output control device, or by the control unit 50 and the control unit 70.

図4における処理の開始は、ユーザが情報出力装置10を操作して、所望の電子書籍を選択することや、選択された電子書籍を表示部13に表示するためのアプリケーションが起動することで開始される。つまり、ユーザによる電子書籍の選択操作に基づき、書籍特定部52は、書籍情報取得部51が書籍情報を取得する電子書籍を特定する。 The process in FIG. 4 begins when the user operates the information output device 10 to select a desired e-book or when an application for displaying the selected e-book on the display unit 13 is started. In other words, based on the user's operation to select an e-book, the book identification unit 52 identifies the e-book from which the book information acquisition unit 51 will acquire book information.

図4の処理の開始に伴い、書籍情報取得部51は、書籍DB部11から選択された電子書籍の書籍情報を取得し、表示制御部58は、書籍情報を表示部13に表示させる。また、書籍情報の表示に伴い、視線検出部54は、撮像部12がユーザを撮影した映像データからユーザの視線を検出し、ユーザが表示部13を見ている箇所、つまり電子書籍を読んでいる箇所の検出を開始する(ステップS101)。 When the process in FIG. 4 starts, the book information acquisition unit 51 acquires book information of the selected e-book from the book DB unit 11, and the display control unit 58 causes the book information to be displayed on the display unit 13. In addition, as the book information is displayed, the gaze detection unit 54 detects the user's gaze from the video data captured by the imaging unit 12 of the user, and starts detecting the part of the display unit 13 where the user is looking, i.e., the part where the user is reading the e-book (step S101).

ステップS101の処理の開始後、音声選択制御部57は、書籍情報取得部51が取得した書籍情報における想定感情情報に基づき、特定部55が特定したユーザが読んでいる箇所が、感情に訴える箇所であるか否かを判断する(ステップS102)。言い換えると、特定部55が特定したユーザが読んでいる箇所に対応する想定感情情報があるか否かを判断する。つまり、電子書籍におけるユーザが読んでいる箇所が、興奮するような内容や喜びに共感するような内容である箇所や、悲しみや恐怖を感じる箇所などであることが判断される。 After the processing of step S101 starts, the voice selection control unit 57 judges whether the part the user is reading, identified by the identification unit 55, is an emotional part, based on the expected emotion information in the book information acquired by the book information acquisition unit 51 (step S102). In other words, it judges whether there is expected emotion information corresponding to the part the user is reading, identified by the identification unit 55. That is, it is judged that the part in the electronic book the user is reading is a part containing exciting content, content that evokes joy, or a part that makes the user feel sad or scared.

ステップS102において、ユーザが読んでいる箇所が、感情に訴える箇所であると判断された場合(ステップS102:Yes)、ステップS103に推移し、ユーザがステップS102で判断された感情に対応する感情を示しているか否かを判断する(ステップS103)。ステップS102において、ユーザが読んでいる箇所が、感情に訴える箇所ではないと判断された場合(ステップS102:No)、ステップS105に推移する。 If it is determined in step S102 that the part the user is reading is an emotionally appealing part (step S102: Yes), the process proceeds to step S103, where it is determined whether the user is expressing an emotion corresponding to the emotion determined in step S102 (step S103). If it is determined in step S102 that the part the user is reading is not an emotionally appealing part (step S102: No), the process proceeds to step S105.

ステップS103においては、音声選択制御部57は、感情分析部56が分析したユーザの感情と想定感情情報とを比較し、ユーザは想定感情情報に示されているような感情を示しているか否かを判断する。ステップS103での判断は、例えば、ユーザが読んでいる箇所における想定感情情報が興奮や喜びの状態となることが想定されることを示している場合に、ユーザの感情が同様の感情を示しているか否かを判断する。また、ユーザが読んでいる箇所における想定感情情報が恐怖感のある状態となることが想定されることを示している場合に、ユーザの感情が同様の感情を示しているか否かを判断する。 In step S103, the voice selection control unit 57 compares the user's emotion analyzed by the emotion analysis unit 56 with the expected emotion information, and judges whether the user is showing an emotion as indicated in the expected emotion information. In step S103, for example, when the expected emotion information in the section the user is reading indicates that the user is expected to be in a state of excitement or joy, it is judged whether the user's emotion shows a similar emotion. Also, when the expected emotion information in the section the user is reading indicates that the user is expected to be in a state of fear, it is judged whether the user's emotion shows a similar emotion.

ステップS103による判断の他の例としては、例えば、ユーザが読んでいる箇所における想定感情情報がある程度のレベルの興奮や喜びの状態となることが想定されることを示している場合に、ユーザの感情が同様のレベルの感情を示しているか否かを判断する。このレベルは、数値化されていることが適切である。具体的には、第1レベルの興奮度や喜び度、第1レベルよりは高いレベルである第2レベルの興奮度や喜び度などが想定感情情報として示される。これに対し、感情分析部56によるユーザの感情の分析は、例えば、第1レベルの興奮度や喜び度に相当する感情、第1レベルよりは高いレベルである第2レベルの興奮度や喜び度に相当する感情などが分析される。恐怖感に対応するレベルも同様である。 As another example of the judgment made by step S103, for example, when the expected emotion information in the section the user is reading indicates that a certain level of excitement or joy is expected, it is judged whether the user's emotion indicates a similar level of emotion. It is appropriate that this level is quantified. Specifically, a first level of excitement or joy, a second level of excitement or joy that is higher than the first level, etc. are indicated as expected emotion information. In contrast, the emotion analysis unit 56 analyzes the user's emotion by, for example, emotions corresponding to the first level of excitement or joy, and emotions corresponding to the second level of excitement or joy that is higher than the first level. The same applies to the level corresponding to fear.

ステップS103において、ユーザが、電子書籍を読んでいる箇所に対応する感情を示していると判断された場合(ステップS103:Yes)、ステップS104に推移する。ステップS103において、ユーザが、電子書籍を読んでいる箇所に対応する感情を示していないと判断された場合(ステップS103:No)、ステップS105に推移する。 If it is determined in step S103 that the user is showing emotion corresponding to the part of the e-book they are reading (step S103: Yes), the process proceeds to step S104. If it is determined in step S103 that the user is not showing emotion corresponding to the part of the e-book they are reading (step S103: No), the process proceeds to step S105.

ステップS104においては、電子書籍を読んでいるユーザが、電子書籍を読んでいる箇所における想定感情情報に示される感情を示していない場合に、音声選択制御部57は、想定感情情報に示される感情を喚起するような音楽などの音声を選択し、通信制御部59によってイヤフォンである生体情報取得装置20に出力させる。つまり、音声選択制御部57は、音声出力制御部である通信制御部59に、選択した音声を出力させる。 In step S104, if the user reading the e-book is not showing the emotion indicated in the expected emotion information at the point where the e-book is being read, the sound selection control unit 57 selects sound such as music that evokes the emotion indicated in the expected emotion information, and causes the communication control unit 59 to output the sound to the biometric information acquisition device 20, which is an earphone. In other words, the sound selection control unit 57 causes the communication control unit 59, which is an audio output control unit, to output the selected sound.

また、ステップS104においては、電子書籍を読んでいるユーザが、電子書籍を読んでいる箇所における想定感情情報に示されるレベルの感情を示していない場合に、音声選択制御部57は、想定感情情報に示される感情をさらに喚起するような音楽などの音声を選択し、通信制御部59によってイヤフォンである生体情報取得装置20に出力させる。 In addition, in step S104, if the user reading the electronic book does not show the level of emotion shown in the expected emotion information at the point where the electronic book is being read, the audio selection control unit 57 selects audio, such as music, that further evokes the emotion shown in the expected emotion information, and causes the communication control unit 59 to output the selected audio to the biometric information acquisition device 20, which is an earphone.

ステップS104で出力された音声は、ユーザが電子書籍を読み進めることで、想定感情情報が対応付けられていない箇所になった場合や、異なる想定感情情報が対応付けられている箇所になった場合に、出力が停止される。 The audio output in step S104 is stopped when the user continues reading the electronic book and reaches a point to which no expected emotion information is associated, or when the user reaches a point to which different expected emotion information is associated.

ステップS105においては、音声選択制御部57は、ユーザによる電子書籍の利用が停止したか否かを判断する。電子書籍の利用が終了していないと判断された場合(ステップS105:No)、ステップS102に推移し、電子書籍の利用が終了したと判断された場合(ステップS105:Yes)、本処理を終了する。ステップS105においては、例えば、電子書籍を表示部13に表示するためのアプリケーションが終了または待機状態となった場合や、ユーザが表示部13を例えば60秒以上などの所定時間見ていない場合などに、電子書籍の利用が終了したと判断される。 In step S105, the audio selection control unit 57 determines whether or not the user has stopped using the electronic book. If it is determined that the user has not finished using the electronic book (step S105: No), the process proceeds to step S102. If it is determined that the user has finished using the electronic book (step S105: Yes), the process ends. In step S105, it is determined that the user has finished using the electronic book, for example, when an application for displaying the electronic book on the display unit 13 has been terminated or has entered a standby state, or when the user has not looked at the display unit 13 for a predetermined period of time, such as 60 seconds or more.

このような処理によって、情報出力装置10または情報出力システム1は、電子書籍の内容に基づいて、電子書籍を読んでいるユーザに適した音声を出力することができる。例えば、ユーザが想定感情情報に示される感情を示さない場合や、示していてもレベルが低い場合に、感情を喚起する音楽等の音声が出力されるため、ユーザの感情も音声によって影響を受け、ユーザは電子書籍をさらに楽しむことができる。 Through such processing, the information output device 10 or the information output system 1 can output audio appropriate for the user reading the e-book, based on the contents of the e-book. For example, if the user does not show the emotion indicated in the expected emotion information, or shows it at a low level, audio such as music that evokes the emotion is output, so that the user's emotions are also influenced by the audio, allowing the user to enjoy the e-book even more.

次に、図5を用いて、本発明の第2実施形態に係る情報出力装置10が実行する処理の流れについて説明する。第2実施形態における情報出力装置10および情報出力システム1の構成は、第1実施形態と共通であるため、説明を省略する。図5の処理において、ステップS201、ステップS202およびステップS207は、図4におけるステップS101、ステップS102およびステップS105と共通するため、説明を省略する。 Next, the flow of processing executed by the information output device 10 according to the second embodiment of the present invention will be described with reference to FIG. 5. The configurations of the information output device 10 and the information output system 1 in the second embodiment are the same as those in the first embodiment, and therefore the description will be omitted. In the processing in FIG. 5, steps S201, S202, and S207 are the same as steps S101, S102, and S105 in FIG. 4, and therefore the description will be omitted.

ステップS202において、ユーザが読んでいる箇所が、感情に訴える箇所であると判断された場合(ステップS202:Yes)、音声選択制御部57は、ユーザが読んでいる箇所に対応する音声があるか否かを判断する(ステップS203)。ユーザが読んでいる箇所に対応する音声とは、書籍情報取得部51が書籍情報として取得した、電子書籍の内容に対応した音楽や効果音などの音声情報である。ステップS203において、ユーザが読んでいる箇所に対応する音声があると判断された場合(ステップS203:Yes)、ステップS204に推移し、ユーザが読んでいる箇所に対応する音声がないと判断された場合(ステップS203:No)、ステップS207に推移する。 If it is determined in step S202 that the part the user is reading is an emotional part (step S202: Yes), the audio selection control unit 57 determines whether there is audio corresponding to the part the user is reading (step S203). The audio corresponding to the part the user is reading is audio information such as music or sound effects corresponding to the contents of the electronic book, which is acquired as book information by the book information acquisition unit 51. If it is determined in step S203 that there is audio corresponding to the part the user is reading (step S203: Yes), the process proceeds to step S204. If it is determined that there is no audio corresponding to the part the user is reading (step S203: No), the process proceeds to step S207.

ステップS204においては、音声選択制御部57は、ステップS203で判断された音声を選択し、音声出力制御部である通信制御部59に、選択した音声を通信制御部59によってイヤフォンである生体情報取得装置20に出力させる。つまり、音声選択制御部57は、音声出力制御部である通信制御部59に、選択した音声の出力を開始させる。 In step S204, the voice selection control unit 57 selects the voice determined in step S203, and causes the communication control unit 59, which is a voice output control unit, to output the selected voice to the biometric information acquisition device 20, which is an earphone, via the communication control unit 59. In other words, the voice selection control unit 57 causes the communication control unit 59, which is a voice output control unit, to start outputting the selected voice.

ステップS204で、音声の出力を開始した後、ステップS205に推移し、ユーザがステップS202で判断された感情に対応する感情を示しているか否かを判断する。ステップS205におけるユーザの感情に対する判断は、第1実施形態におけるステップS103における判断と共通するが、ステップS205においては、ユーザが読んでいる箇所に対応する音声をユーザが聞いている状態での感情の判断である。 After starting audio output in step S204, the process proceeds to step S205, where it is determined whether the user is showing an emotion corresponding to the emotion determined in step S202. The determination of the user's emotion in step S205 is the same as the determination in step S103 in the first embodiment, but in step S205, the emotion is determined while the user is listening to the audio corresponding to the passage the user is reading.

ステップS205において、ユーザが、電子書籍を読んでいる箇所に対応する音声を聞いている状態で、その位置に対応する感情を示していると判断された場合(ステップS205:Yes)、ステップS207に推移する。ステップS205において、ユーザが、電子書籍を読んでいる箇所に対応する音声を聞いている状態で、その位置に対応する感情を示していない判断された場合(ステップS205:No)、ステップS206に推移する。 If it is determined in step S205 that the user is listening to the audio corresponding to the portion of the e-book he is reading and is showing an emotion corresponding to that position (step S205: Yes), the process proceeds to step S207. If it is determined in step S205 that the user is listening to the audio corresponding to the portion of the e-book he is reading and is not showing an emotion corresponding to that position (step S205: No), the process proceeds to step S206.

ステップS206においては、音声選択制御部57は、ステップS204で出力を開始した音声の変更、または音量の変更等を行う。ステップS206においては、電子書籍を読んでいるユーザが、電子書籍を読んでいる箇所における想定感情情報に示される感情を示していない場合に、音声選択制御部57は、ステップS204で出力が開始された音声に代えて、想定感情情報に示される感情をさらに喚起するような音楽などの音声を選択し、通信制御部59によってイヤフォンである生体情報取得装置20に出力させる。 In step S206, the audio selection control unit 57 changes the audio that started to be output in step S204, changes the volume, etc. In step S206, if the user reading the electronic book is not showing the emotion indicated in the expected emotion information at the point where the electronic book is being read, the audio selection control unit 57 selects audio such as music that further evokes the emotion indicated in the expected emotion information, instead of the audio that started to be output in step S204, and causes the communication control unit 59 to output the audio to the biometric information acquisition device 20, which is an earphone.

また、ステップS206においては、電子書籍を読んでいるユーザが、電子書籍を読んでいる箇所における想定感情情報に示される感情を示していない場合に、音声選択制御部57は、ステップS204で出力が開始された音声の音量や音程が変化するように、通信制御部59によってイヤフォンである生体情報取得装置20に出力させる。 In addition, in step S206, if the user reading the electronic book is not showing the emotion indicated in the expected emotion information at the point where the electronic book is being read, the audio selection control unit 57 causes the communication control unit 59 to output the audio, which started to be output in step S204, to the biometric information acquisition device 20, which is an earphone, so that the volume and pitch of the audio are changed.

例えば、想定感情情報が興奮や喜びの状態となることが想定されることを示している場合に、ユーザの感情が、想定感情情報に示されている感情を示していない場合や、想定感情情報に示されるレベルの感情を示していない場合、音声選択制御部57は、ステップS204で出力が開始された音声の音量を、数%大きく変更したり、音程を数%上げる変更を行う。例えば、想定感情情報が恐怖感のある状態となることが想定されることを示している場合に、ユーザの感情が、想定感情情報に示されている感情を示していない場合や、想定感情情報に示されるレベルの感情を示していない場合、音声選択制御部57は、ステップS204で出力が開始された音声の音量を、数%小さく変更したり、音程を数%下げる変更を行う。また、音声が突然中断するような変更を行ってもよい。 For example, when the expected emotion information indicates that a state of excitement or joy is expected, if the user's emotion does not indicate the emotion indicated in the expected emotion information, or does not indicate the level of emotion indicated in the expected emotion information, the voice selection control unit 57 increases the volume of the voice that started to be output in step S204 by a few percent, or raises the pitch by a few percent. For example, when the expected emotion information indicates that a state of fear is expected, if the user's emotion does not indicate the emotion indicated in the expected emotion information, or does not indicate the level of emotion indicated in the expected emotion information, the voice selection control unit 57 reduces the volume of the voice that started to be output in step S204 by a few percent, or lowers the pitch by a few percent. In addition, a change such as a sudden interruption of the voice may be made.

このような処理によって、情報出力装置10または情報出力システム1は、電子書籍の内容に基づいて、電子書籍を読んでいるユーザに適したように変化させた音声を出力することができる。例えば、ユーザが想定感情情報に示される感情を示さない場合や、示していてもレベルが低い場合に、感情を喚起する音楽等の音声を変化させて出力されるため、ユーザの感情も音声によって影響を受け、ユーザは電子書籍をさらに楽しむことができる。 Through such processing, the information output device 10 or the information output system 1 can output audio that has been modified to suit the user reading the e-book, based on the contents of the e-book. For example, if the user does not show the emotion indicated in the expected emotion information, or shows it at a low level, audio such as music that evokes the emotion is modified and output, so that the user's emotions are also influenced by the audio, allowing the user to enjoy the e-book even more.

次に、図6を用いて、本発明の第3実施形態に係る情報出力装置10が実行する処理の流れについて説明する。第3実施形態における情報出力装置10および情報出力システム1の構成は、第1実施形態と共通であるため、説明を省略する。図6の処理において、ステップS301、ステップS302およびステップS305は、図4におけるステップS101、ステップS102およびステップS105と共通するため、説明を省略する。 Next, the flow of processing executed by the information output device 10 according to the third embodiment of the present invention will be described with reference to FIG. 6. The configurations of the information output device 10 and the information output system 1 in the third embodiment are the same as those in the first embodiment, and therefore the description will be omitted. In the processing in FIG. 6, steps S301, S302, and S305 are the same as steps S101, S102, and S105 in FIG. 4, and therefore the description will be omitted.

ステップS302において、ユーザが読んでいる箇所が、感情に訴える箇所であると判断された場合(ステップS302:Yes)、ステップS303に推移し、ユーザがステップS102で判断された感情に対し、過剰反応を示しているか否かを判断する(ステップS303)。つまり、ステップS303においては、ユーザが想定感情情報に示される感情を超えるレベルの感情を示している否かを判断する。 In step S302, if it is determined that the part the user is reading is an emotional part (step S302: Yes), the process proceeds to step S303, where it is determined whether the user is overreacting to the emotion determined in step S102 (step S303). In other words, in step S303, it is determined whether the user is showing an emotion at a level that exceeds the emotion indicated in the expected emotion information.

ステップS302においては、特に、想定感情情報が恐怖感のある状態となることが想定されることを示している場合に、ユーザの心拍や体温などの生体情報が異常値を示す場合や、異常値を示す可能性が高くなるような推移を示している場合に、過剰反応を示していると判断する。 In step S302, it is determined that an overreaction is occurring, particularly when the expected emotion information indicates that a state of fear is expected, and when the user's biometric information, such as heart rate or body temperature, indicates abnormal values or shows a trend that indicates an increased likelihood of abnormal values.

ステップS303において、ユーザが、電子書籍を読んでいる箇所に対応する過剰反応を示していると判断された場合(ステップS303:Yes)、ステップS304に推移する。ステップS303において、ユーザが、電子書籍を読んでいる箇所に対応する過剰反応を示していないと判断された場合(ステップS303:No)、ステップS305に推移する。 If it is determined in step S303 that the user is overreacting to the part of the e-book they are reading (step S303: Yes), the process proceeds to step S304. If it is determined in step S303 that the user is not overreacting to the part of the e-book they are reading (step S303: No), the process proceeds to step S305.

ステップS304においては、想定感情情報が恐怖感のある状態となることが想定されることを示している場合、音声選択制御部57は、音声の音量を低下させる変更や、気持ちを落ち着かせる音声に変更を行う。また、ステップS304においては、読んでいる電子書籍の表示を停止してもよく、他の電子書籍に変更することを促してもよい。 In step S304, if the expected emotion information indicates that a frightening state is expected, the audio selection control unit 57 changes the audio to a lower volume or changes the audio to a more calming one. Also, in step S304, the display of the electronic book being read may be stopped, or the user may be prompted to change to another electronic book.

このような処理によって、情報出力装置10または情報出力システム1は、電子書籍の内容に基づいて、電子書籍を読んでいるユーザに適した音声の出力、または適した対応をすることができる。 By performing such processing, the information output device 10 or the information output system 1 can output audio appropriate for the user reading the e-book, or provide an appropriate response, based on the contents of the e-book.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、生体情報の取得は、生体情報取得装置20を用いずに、情報出力装置10で行ってもよい。さらには、音声の出力は、生体情報取得装置20を用いずに、情報出力装置10で行ってもよい。また、各実施形態は、各々の独立した実施に加えて、適宜組み合わせた実施や、並列処理的な実施などが可能である。 The present invention is not limited to the above-described embodiments, and can be modified as appropriate without departing from the spirit of the present invention. For example, acquisition of biometric information can be performed by the information output device 10 without using the biometric information acquisition device 20. Furthermore, output of audio can be performed by the information output device 10 without using the biometric information acquisition device 20. In addition to being implemented independently, each embodiment can be implemented in combination as appropriate, or in a parallel processing manner.

また、上述した処理をコンピュータに実行させるためのプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、または様々な通信回線を介して提供可能であり、情報出力装置として動作するコンピュータに供給することができる。 In addition, the program for causing a computer to execute the above-mentioned processes can be stored using various types of non-transitory computer-readable media or provided via various communication lines, and can be supplied to a computer operating as an information output device.

1 情報出力システム
10 情報出力装置
11 書籍DB部
12 撮像部
13 表示部
14 通信部
20 生体情報取得装置
21 生体センサ
22 通信部
23 音声出力部
50 制御部
51 書籍情報取得部
52 書籍特定部
53 撮影制御部
54 視線検出部
55 特定部
56 感情分析部
57 音声選択制御部
58 表示制御部
59 通信制御部
70 制御部
71 生体情報取得部
72 通信制御部
73 音声出力制御部
REFERENCE SIGNS LIST 1 Information output system 10 Information output device 11 Book DB section 12 Imaging section 13 Display section 14 Communication section 20 Biometric information acquisition device 21 Biometric sensor 22 Communication section 23 Audio output section 50 Control section 51 Book information acquisition section 52 Book identification section 53 Photography control section 54 Gaze detection section 55 Identification section 56 Emotion analysis section 57 Audio selection control section 58 Display control section 59 Communication control section 70 Control section 71 Biometric information acquisition section 72 Communication control section 73 Audio output control section

Claims (5)

書籍を特定する書籍特定部と、
前記書籍特定部が特定した書籍の内容を表示部に表示させる表示制御部と、
前記書籍特定部が特定した書籍の内容および内容の前記表示部における表示位置を示す書籍情報を取得する書籍情報取得部と、
前記表示部に対するユーザの視線位置を検出する視線検出部と、
前記表示部に対する前記ユーザの視線位置および前記書籍情報に基づき、前記ユーザが前記書籍を読んでいる箇所を特定する特定部と、
前記ユーザの生体情報を取得して前記ユーザの感情を分析する感情分析部と、
前記特定部で特定した前記ユーザが前記書籍を読んでいる箇所に対応する音声を、前記感情分析部が分析した前記ユーザの感情に基づいて選択する音声選択制御部と、
前記音声選択制御部が選択した音声を出力する音声出力制御部と、
を備える情報出力装置。
A book identification unit that identifies a book;
a display control unit that causes the contents of the book identified by the book identification unit to be displayed on a display unit;
a book information acquiring unit that acquires book information indicating the contents of the book identified by the book identifying unit and the display position of the contents on the display unit;
a gaze detection unit that detects a gaze position of a user with respect to the display unit;
an identification unit that identifies a portion of the book that the user is reading based on the gaze position of the user with respect to the display unit and the book information;
an emotion analysis unit that acquires biometric information of the user and analyzes emotions of the user;
a voice selection control unit that selects a voice corresponding to the part of the book that the user is reading, which is identified by the identification unit, based on the emotion of the user analyzed by the emotion analysis unit;
a sound output control unit that outputs the sound selected by the sound selection control unit;
An information output device comprising:
前記音声選択制御部は、前記ユーザの感情に基づいて、前記ユーザが前記書籍を読んでいる箇所に対応する音声の種類、音声の音量、または音声の音程の少なくともいずれかを変化させる、
請求項1に記載の情報出力装置。
the voice selection control unit changes at least one of a type of voice, a volume of voice, or a pitch of voice corresponding to a part of the book being read by the user based on the emotion of the user;
2. The information output device according to claim 1.
前記書籍情報取得部は、前記書籍特定部が特定した書籍の内容の対応する想定感情情報をさらに取得し、
前記音声選択制御部は、前記特定部で特定した、前記ユーザが前記書籍を読んでいる箇所に対応する想定感情情報と、前記ユーザの感情との比較結果に基づいて、前記ユーザが前記書籍を読んでいる箇所に対応する音声を選択する、
請求項1または2に記載の情報出力装置。
the book information acquisition unit further acquires expected emotion information corresponding to the content of the book identified by the book identification unit;
The voice selection control unit selects a voice corresponding to the portion of the book where the user is reading, based on a comparison result between expected emotion information corresponding to the portion of the book where the user is reading, identified by the identification unit, and the emotion of the user.
3. The information output device according to claim 1 or 2.
前記音声選択制御部は、前記ユーザの感情が、前記ユーザが前記書籍を読んでいる箇所に対して過剰に反応していることが検出された場合は、前記ユーザの感情を抑制する音声を選択する、
請求項1から3のいずれか1項に記載の情報出力装置。
When it is detected that the user's emotion is an overreaction to a part of the book that the user is reading, the voice selection control unit selects a voice that suppresses the user's emotion.
The information output device according to claim 1 .
書籍を特定するステップと、
特定した書籍の内容を表示部に表示させるステップと、
特定した書籍の内容および内容の前記表示部における表示位置を示す書籍情報を取得するステップと、
前記表示部に対するユーザの視線位置を検出するステップと、
前記表示部に対する前記ユーザの視線位置および前記書籍情報に基づき、前記ユーザが前記書籍を読んでいる箇所を特定するステップと、
前記ユーザの生体情報を取得して前記ユーザの感情を分析するステップと、
前記ユーザが前記書籍を読んでいる箇所に対応する音声を、前記ユーザの感情に基づいて選択するステップと、
選択した音声を出力するステップと、
を情報出力装置が実行する情報出力方法。
Identifying a book;
A step of displaying the content of the identified book on a display unit;
acquiring book information indicating the content of the identified book and the display position of the content on the display unit;
Detecting a gaze position of a user with respect to the display unit;
identifying a part of the book being read by the user based on a gaze position of the user with respect to the display unit and the book information;
acquiring biometric information of the user and analyzing the emotion of the user;
selecting a sound corresponding to a portion of the book being read by the user based on an emotion of the user;
outputting the selected audio;
The information output method is executed by an information output device.
JP2020212181A 2020-12-22 2020-12-22 Information output device and information output method Active JP7501348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020212181A JP7501348B2 (en) 2020-12-22 2020-12-22 Information output device and information output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020212181A JP7501348B2 (en) 2020-12-22 2020-12-22 Information output device and information output method

Publications (2)

Publication Number Publication Date
JP2022098662A JP2022098662A (en) 2022-07-04
JP7501348B2 true JP7501348B2 (en) 2024-06-18

Family

ID=82261908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020212181A Active JP7501348B2 (en) 2020-12-22 2020-12-22 Information output device and information output method

Country Status (1)

Country Link
JP (1) JP7501348B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003509976A (en) 1999-09-10 2003-03-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for advising on receivable programs
JP2006201853A (en) 2005-01-18 2006-08-03 Fujitsu Ten Ltd Content reproduction device
JP2007102360A (en) 2005-09-30 2007-04-19 Sharp Corp Electronic book device
JP2007271655A (en) 2006-03-30 2007-10-18 Brother Ind Ltd System for adding affective content, and method and program for adding affective content
US20140176813A1 (en) 2012-12-21 2014-06-26 United Video Properties, Inc. Systems and methods for automatically adjusting audio based on gaze point
JP2018072876A (en) 2016-10-24 2018-05-10 富士ゼロックス株式会社 Emotion estimation system and emotion estimation model generation system
JP2020140178A (en) 2019-03-01 2020-09-03 富士通クライアントコンピューティング株式会社 Voice conversion device, voice conversion system and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003509976A (en) 1999-09-10 2003-03-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for advising on receivable programs
JP2006201853A (en) 2005-01-18 2006-08-03 Fujitsu Ten Ltd Content reproduction device
JP2007102360A (en) 2005-09-30 2007-04-19 Sharp Corp Electronic book device
JP2007271655A (en) 2006-03-30 2007-10-18 Brother Ind Ltd System for adding affective content, and method and program for adding affective content
US20140176813A1 (en) 2012-12-21 2014-06-26 United Video Properties, Inc. Systems and methods for automatically adjusting audio based on gaze point
JP2018072876A (en) 2016-10-24 2018-05-10 富士ゼロックス株式会社 Emotion estimation system and emotion estimation model generation system
JP2020140178A (en) 2019-03-01 2020-09-03 富士通クライアントコンピューティング株式会社 Voice conversion device, voice conversion system and program

Also Published As

Publication number Publication date
JP2022098662A (en) 2022-07-04

Similar Documents

Publication Publication Date Title
CN110874129B (en) Display system
EP2652578B1 (en) Correlation of bio-signals with modes of operation of an apparatus
US10366778B2 (en) Method and device for processing content based on bio-signals
WO2015072202A1 (en) Information-processing device, method and program for detecting eye fatigue on basis of pupil diameter
US20180285641A1 (en) Electronic device and operation method thereof
EP2591408B1 (en) Using bio-signals for controlling a user alert
US11861837B2 (en) Utilization of luminance changes to determine user characteristics
US11782508B2 (en) Creation of optimal working, learning, and resting environments on electronic devices
JP7501348B2 (en) Information output device and information output method
US10643636B2 (en) Information processing apparatus, information processing method, and program
KR20210075641A (en) Providing Method for information and electronic device supporting the same
KR20200046526A (en) Screen control device and method for sight protection
CN108600502B (en) Electronic device, dialing method and related product
JP2017059079A (en) Information delivery device and information delivery program
JP7435125B2 (en) Information output control device, information output system, information output control method and program
KR20200094436A (en) Electronic device and method for providing image acquired through camera to a plurality of applications
US20240233940A1 (en) Interactive medical communication device
US11762457B1 (en) User comfort monitoring and notification
US20230259203A1 (en) Eye-gaze based biofeedback
US11775673B1 (en) Using physiological cues to measure data sensitivity and implement security on a user device
JP2022034144A (en) Information terminal, information terminal control program, and information terminal control method
CN117120958A (en) Pressure detection
WO2022066476A1 (en) Detecting unexpected user interface behavior using physiological data
EP4216797A1 (en) Retinal imaging-based eye accommodation detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240520

R150 Certificate of patent or registration of utility model

Ref document number: 7501348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150