JP2014106394A - Voice information display device, voice information display method and program - Google Patents

Voice information display device, voice information display method and program Download PDF

Info

Publication number
JP2014106394A
JP2014106394A JP2012259495A JP2012259495A JP2014106394A JP 2014106394 A JP2014106394 A JP 2014106394A JP 2012259495 A JP2012259495 A JP 2012259495A JP 2012259495 A JP2012259495 A JP 2012259495A JP 2014106394 A JP2014106394 A JP 2014106394A
Authority
JP
Japan
Prior art keywords
display
mode
unit
audio
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012259495A
Other languages
Japanese (ja)
Inventor
Hiroshi Nagoshi
啓 名越
Miho Otaki
未穂 大瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012259495A priority Critical patent/JP2014106394A/en
Publication of JP2014106394A publication Critical patent/JP2014106394A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a user to accurately recognize information on voice regardless of a use form of the user.SOLUTION: A voice analysis unit 113 analyzes a voice signal which is input to a voice input unit 120. A sensor unit 170 detects a state of a device. A mode determination unit 114 determines whether the device is used in a placement mode in which the device is placed or in a grip mode in which the device is not placed, on the basis of an output from the sensor unit 170. On the basis of a determination result of the mode determination unit 114, a display control unit 111 performs display based on the voice signal analyzed by the voice analysis unit 113 for a first time in the placement mode, and performs display based on the voice signal analyzed by the voice analysis unit 113 for a second time different from the first display time in the grip mode.

Description

本発明は、周囲の音声を取得して表示するための、音声情報表示装置、音声情報表示方法およびプログラムに関する。   The present invention relates to an audio information display device, an audio information display method, and a program for acquiring and displaying surrounding audio.

聴覚に障害がある場合や、健常者であってもヘッドフォンの利用により周辺の音声情報を認識できない場合がある。このような場合において、周辺の音声情報を取得して視覚等を用いてユーザに音声情報を報知する装置がある(特許文献1、特許文献2)。   There are cases where hearing is impaired, and even a normal person cannot recognize surrounding audio information by using headphones. In such a case, there is a device that acquires peripheral audio information and notifies the user of the audio information using vision or the like (Patent Documents 1 and 2).

特開2010−251916号公報JP 2010-251916 A 特開2005−99418号公報JP-A-2005-99418

ユーザが、周辺の音声に関する情報を表示部における表示に基づいて認識する場合、表示部を見ていなかったために音声を認識できない状態が発生する。通常、周辺の音声に関する情報を表示させる装置は、音声の発生期間のみの表示ではなく、例えば音声の発生後3秒間などの時間、音声に関する情報を表示させる。   When the user recognizes information related to surrounding sounds based on the display on the display unit, a state in which the user cannot recognize the sound occurs because the user has not seen the display unit. Normally, a device that displays information related to surrounding sound displays information related to sound for a time such as 3 seconds after the sound is generated, instead of displaying only the sound generation period.

このような音声に関する情報を表示する装置の利用形態は様々である。例えば、装置を手に把持して利用している場合は、表示画面の確認頻度が高く、音声に関する表示に気付くことができるが、装置を載置して利用している場合、手に把持している場合よりは表示画面を確認せず、さらにユーザは装置を置いたまま移動することもある。   There are various usage forms of such a device that displays information related to sound. For example, when the device is held and used, the frequency of confirmation of the display screen is high, and it is possible to notice the display related to the sound. However, when the device is mounted and used, the device is held by the hand. In some cases, the user does not check the display screen, and the user may move with the device placed.

このように、様々な利用形態であっても、ユーザに適切に音声に関する情報を伝える必要がある。   As described above, even in various usage forms, it is necessary to appropriately convey information about voice to the user.

本発明はこのような問題点に鑑みなされたものであり、ユーザの利用形態を問わず的確に音声に関する情報をユーザに認識させることを可能とする、音声情報表示装置、音声情報表示方法およびプログラムを提供することを目的とする。   The present invention has been made in view of such a problem, and enables a user to accurately recognize information related to voice regardless of a user's usage form, a voice information display device, a voice information display method, and a program. The purpose is to provide.

上記目的を達成するために、本発明に関わる音声情報表示装置(100)は、音声信号が入力される音声入力部(120)、前記音声入力部(120)に入力された音声信号を分析する音声分析部(113)、装置の状態を検出するセンサ部(170)、前記センサ部(170)からの出力に基づき、装置が載置された状態で使用されている場合の載置モードおよび装置が載置されていない状態で使用されている把持モードのいずれかであるかを判断するモード判断部(114)、前記モード判断部(114)の判断結果に基づき、前記載置モードである場合は、前記音声分析部(113)において分析された音声信号に基づく表示を第1の時間表示させ、前記把持モードである場合は、前記音声信号部(113)において分析された音声信号に基づく表示を前記第1の表示時間とは異なる第2の時間表示させる表示制御部(111)、を備えることを特徴とする。   In order to achieve the above object, an audio information display device (100) according to the present invention analyzes an audio input unit (120) to which an audio signal is input, and an audio signal input to the audio input unit (120). A voice analysis unit (113), a sensor unit (170) for detecting the state of the device, and a mounting mode and device when the device is used in a mounted state based on the output from the sensor unit (170) A mode determination unit (114) for determining whether the grip mode is used in a state in which the device is not placed, and the mode determination unit (114) is based on the determination result of the mode determination unit (114). Displays a display based on the audio signal analyzed in the audio analysis unit (113) for a first time, and in the grip mode, the audio signal analyzed in the audio signal unit (113) And a display control unit (111) that displays a display based on the second time different from the first display time.

また、本発明に係る音声情報表示方法は、装置の状況を検出する検出ステップ、前記検出ステップにおいて検出された装置の状況に基づき、装置が載置された状態で使用されている場合の載置モードおよび装置が載置されていない状態で使用されている把持モードのいずれかであるかを判断するモード判断ステップ、入力された音声信号を分析する分析ステップ、前記モード判断ステップにおける判断結果に基づき、前記載置モードである場合は、前記分析ステップにおいて分析された音声信号に基づく表示を第1の時間表示させ、前記把持モードである場合は、前記分析ステップにおいて分析された音声信号に基づく表示を前記第1の表示時間とは異なる第2の時間表示させる表示ステップ、を備えることを特徴とする。   In addition, the audio information display method according to the present invention includes a detection step for detecting the status of the device, and a placement when the device is being used based on the status of the device detected in the detection step. Based on the mode determination step for determining whether the mode and any of the gripping modes used when the device is not placed, the analysis step for analyzing the input audio signal, and the determination result in the mode determination step The display based on the audio signal analyzed in the analysis step is displayed for a first time in the case of the placement mode, and the display based on the audio signal analyzed in the analysis step is in the grip mode. A display step of displaying a second time different from the first display time.

また、本発明に係るプログラムは、音声情報表示装置(100)が備えるコンピュータ(110)に、装置の状況を検出する検出ステップ、前記検出ステップにおいて検出された装置の状況に基づき、装置が載置された状態で使用されている場合の載置モードおよび装置が載置されていない状態で使用されている把持モードのいずれかであるかを判断するモード判断ステップ、入力された音声信号を分析する分析ステップ、前記モード判断ステップにおける判断結果に基づき、前記載置モードである場合は、前記分析ステップにおいて分析された音声信号に基づく表示を第1の時間表示させ、前記把持モードである場合は、前記分析ステップにおいて分析された音声信号に基づく表示を前記第1の表示時間とは異なる第2の時間表示させる表示ステップ、を実行させることを特徴とする。   The program according to the present invention is installed in the computer (110) included in the audio information display device (100) based on the detection step of detecting the status of the device and the status of the device detected in the detection step. Mode determining step for determining whether the mounting mode is used when the device is used and the gripping mode is used when the device is not mounted, and the input audio signal is analyzed Based on the determination result in the analysis step, the mode determination step, if it is the pre-arranged mode, the display based on the audio signal analyzed in the analysis step is displayed for a first time, and if it is the grip mode, A display for displaying a display based on the audio signal analyzed in the analysis step for a second time different from the first display time. The step is executed.

本発明によれば、ユーザの利用形態を問わず的確に音声に関する情報をユーザに認識させることを可能とする。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to make a user recognize the information regarding an audio | voice exactly regardless of a user's utilization form.

本実施形態に係る音声情報表示装置の外観斜視図である。It is an external appearance perspective view of the audio | voice information display apparatus which concerns on this embodiment. 本実施形態に係る音声情報表示装置の構成ブロック図である。It is a block diagram of the configuration of the audio information display device according to the present embodiment. 音声分析部の構成ブロック図である。It is a block diagram of a structure of a voice analysis unit. センサ部の構成ブロック図である。It is a block diagram of the configuration of the sensor unit. 第1の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 1st Embodiment. モード判断処理の例を示すフローチャートである。It is a flowchart which shows the example of a mode determination process. モード判断処理の例を示すフローチャートである。It is a flowchart which shows the example of a mode determination process. 音声分析処理の例を示すフローチャートである。It is a flowchart which shows the example of an audio | voice analysis process. 音源方向の例を示す概念図である。It is a conceptual diagram which shows the example of a sound source direction. 音源方向分析処理の例を示すフローチャートである。It is a flowchart which shows the example of a sound source direction analysis process. 表示例を示す図である。It is a figure which shows the example of a display. 表示例を示す図である。It is a figure which shows the example of a display. 表示処理の例を示すフローチャートである。It is a flowchart which shows the example of a display process. 表示例を示すグラフである。It is a graph which shows a display example. 表示例を示すグラフである。It is a graph which shows a display example. 表示例を示す図である。It is a figure which shows the example of a display. 表示処理の例を示すフローチャートである。It is a flowchart which shows the example of a display process. 表示処理の例を示すフローチャートである。It is a flowchart which shows the example of a display process.

以下、本発明の実施形態に係る音声情報表示装置100の構成について、図1から図4を用いて説明する。   Hereinafter, the configuration of the audio information display apparatus 100 according to the embodiment of the present invention will be described with reference to FIGS. 1 to 4.

音声情報表示装置100の一例として、図1に示すように表示機能を備えた小型の装置を用いる。具体的には、携帯電話端末やタブレット端末のように、小型で持ち運び容易であることが好ましい。また、音声情報表示装置100は、専用の装置に加えて携帯電話や各種情報端末に音声情報表示装置100として動作させるためのプログラムをインストールすることによって実現してもよい。この場合、音声情報表示装置100として動作する携帯電話や各種情報端末には、複数のマイクロフォン20を備えたユニット等を接続または装着し、マイクロフォン20に入力された音声信号は携帯電話や各種情報端末に入力される。   As an example of the audio information display apparatus 100, a small apparatus having a display function as shown in FIG. 1 is used. Specifically, it is preferable that the mobile phone terminal or the tablet terminal is small and easy to carry. The voice information display device 100 may be realized by installing a program for causing the mobile phone or various information terminals to operate as the voice information display device 100 in addition to a dedicated device. In this case, a cellular phone or various information terminals that operate as the audio information display device 100 is connected or mounted with a unit or the like having a plurality of microphones 20, and the audio signal input to the microphone 20 is transmitted to the cellular phone or various information terminals. Is input.

音声情報表示装置100は、図1に示すように、その筐体10が構成する面に表示部140の表示面を備え、矩形の筐体10の4隅に各々マイクロフォン20を備える。   As shown in FIG. 1, the audio information display device 100 includes a display surface of the display unit 140 on a surface formed by the housing 10, and includes microphones 20 at four corners of the rectangular housing 10.

音声情報表示装置100の4隅に備えられたマイクロフォン20は、便宜的に、マイクロフォン20A、マイクロフォン20B、マイクロフォン20C、マイクロフォン20Dとしてそれらの位置を示す。本実施形態においては、マイクロフォン20は表示部140を囲うように4箇所配置しているが、マイクロフォン20の配置位置や個数は、音源方向が特定できる構成であれば限定されない。また、音声情報表示装置100の形状も矩形に限定されない。マイクロフォン20は、各々が音声を検出する方向に対して指向性を有するものであることが好ましい。   For convenience, the microphones 20 provided at the four corners of the audio information display device 100 indicate their positions as a microphone 20A, a microphone 20B, a microphone 20C, and a microphone 20D. In the present embodiment, four microphones 20 are arranged so as to surround the display unit 140, but the arrangement position and the number of the microphones 20 are not limited as long as the direction of the sound source can be specified. The shape of the audio information display device 100 is not limited to a rectangle. It is preferable that each of the microphones 20 has directivity with respect to a direction in which sound is detected.

音声情報表示装置100は、その構成として図2に示すように、制御部110、音声入力部120、記憶部130、表示部140、操作部150、センサ部170、通信部180、マイクロフォン20を備える。通信部180は、必要に応じて備えられていてもよい。また、音声情報表示装置100は、例えば装置の各部を動作させる電源供給機能など他に図示しない各種必要な構成要素を備える。   As shown in FIG. 2, the voice information display device 100 includes a control unit 110, a voice input unit 120, a storage unit 130, a display unit 140, an operation unit 150, a sensor unit 170, a communication unit 180, and a microphone 20. . The communication unit 180 may be provided as necessary. In addition, the audio information display device 100 includes various necessary components (not shown) such as a power supply function for operating each unit of the device.

制御部110は、音声情報表示装置100を構成する各部の動作制御、各種データの処理または演算等を行う。制御部110は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、DSP(Digital Signal Processor)等により構成され、ROMに記憶された各種プログラムを実行することにより音声情報表示装置100を構成する各部の動作制御や各部より入力された信号やデータの処理または演算、ファイルの処理等を行う。   The control unit 110 performs operation control of each unit constituting the audio information display device 100, processing or calculation of various data, and the like. The control unit 110 includes, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), a DSP (Digital Signal Processor), and the like, and executes various programs stored in the ROM. Thus, the operation control of each part constituting the voice information display device 100, the processing or calculation of signals and data input from each part, the file processing, and the like are performed.

制御部110は、実行されるプログラムによって各種機能を実現する。本実施形態において制御部110は、表示制御部111、操作制御部112、音声分析部113、モード判断部114、通信制御部115を実現する。   The control unit 110 implements various functions by executing programs. In the present embodiment, the control unit 110 implements a display control unit 111, an operation control unit 112, a voice analysis unit 113, a mode determination unit 114, and a communication control unit 115.

表示制御部111は、表示部140に対して各種情報を表示させる制御を行う。例えば、記憶部130に記憶されている各種表示形態や文字等の表示、図示しないタッチパネル操作部に連動した各種GUI(Graphical User Interface)などを表示させる。   The display control unit 111 performs control to display various information on the display unit 140. For example, various display forms and characters stored in the storage unit 130, various GUIs (Graphical User Interfaces) linked to a touch panel operation unit (not shown), and the like are displayed.

表示制御部111は、後述するモード判断部114において判断されるモードに基づいた異なる時間で、音声信号に基づく表示を表示させる。   The display control unit 111 displays the display based on the audio signal at different times based on the mode determined by the mode determination unit 114 described later.

操作制御部112は、操作部150が操作されることによって生成する操作信号に基づいた処理を実行させる制御を行う。   The operation control unit 112 performs control to execute processing based on an operation signal generated when the operation unit 150 is operated.

音声分析部113は、音声入力部120から入力された音声データに基づき、入力された音声の様々な分析処理を行う。音声分析部113は、実行されるプログラムによって図3に示すように、音圧分析部1131、周波数分析部1132、音方向分析部1133、音種別分析部1134が実現される。   The voice analysis unit 113 performs various analysis processes on the input voice based on the voice data input from the voice input unit 120. As shown in FIG. 3, the sound analysis unit 113 implements a sound pressure analysis unit 1131, a frequency analysis unit 1132, a sound direction analysis unit 1133, and a sound type analysis unit 1134 according to the program to be executed.

音圧分析部1131は、音声入力部120から入力された音声データに対して、例えば入力信号のレベルに応じてパルス幅のHレベルとLレベルの比率を変えるPWM(Pulse Width Modulation)変換を行い、そのパルス幅により音圧を分析する。このPWM変換は、周波数帯域毎に行ってもよい。その場合は、PWM変換前にBPF(Band Pass Filter)により、所望の周波数帯域毎に音声データを選別する。この分析処理は、複数のマイクロフォン20からの入力信号毎に行ってもよく、複数のマイクロフォン20からの入力信号が合成された音声データに対して行ってもよい。   The sound pressure analysis unit 1131 performs, for example, PWM (Pulse Width Modulation) conversion that changes the ratio between the H level and the L level of the pulse width according to the level of the input signal on the audio data input from the audio input unit 120. The sound pressure is analyzed by the pulse width. This PWM conversion may be performed for each frequency band. In that case, audio data is selected for each desired frequency band by BPF (Band Pass Filter) before PWM conversion. This analysis process may be performed for each input signal from the plurality of microphones 20 or may be performed on voice data obtained by synthesizing the input signals from the plurality of microphones 20.

周波数分析部1132は、音声入力部120から入力された音声データに対して、例えば一般的な高速フーリエ変換等により、周波数分布を分析する。この分析処理は、複数のマイクロフォン20からの入力信号毎に行ってもよく、複数のマイクロフォン20からの入力信号が合成された音声データに対して行ってもよい。   The frequency analysis unit 1132 analyzes the frequency distribution of the audio data input from the audio input unit 120 by, for example, a general fast Fourier transform. This analysis process may be performed for each input signal from the plurality of microphones 20 or may be performed on voice data obtained by synthesizing the input signals from the plurality of microphones 20.

音方向分析部1133は、音声入力部120から入力された音声データに基づき、音声信号が発せられた方向である音源方向を分析する。具体例としては、複数のマイクロフォン20の各々に入力された音声信号の音圧レベルを比較し、同一の音声信号における最大の音圧レベルの音声信号が入力されたマイクロフォン20の方向を音源方向とする。   The sound direction analysis unit 1133 analyzes the sound source direction, which is the direction in which the sound signal is emitted, based on the sound data input from the sound input unit 120. As a specific example, the sound pressure levels of the sound signals input to each of the plurality of microphones 20 are compared, and the direction of the microphone 20 to which the sound signal having the maximum sound pressure level in the same sound signal is input is defined as the sound source direction. To do.

音種別分析部1134は、音声入力部120から入力された音声データに対して、例えば記憶部130に記憶されている各種音のパターンデータと照合し、入力された音声の特定を行う。音種別分析部1134による音声データの照合は、後述する通信制御部115の制御により通信部180を用いて外部のサーバ等により照合してもよい。   The sound type analysis unit 1134 compares the sound data input from the sound input unit 120 with, for example, pattern data of various sounds stored in the storage unit 130, and specifies the input sound. The voice data collation by the sound type analysis unit 1134 may be collated by an external server or the like using the communication unit 180 under the control of the communication control unit 115 described later.

モード判断部114は、センサ部170からの出力に基づき、音声情報表示装置100が載置された状態で使用されているか把持された状態で使用されているかを判断し、各々の使用状態に対応する載置モードまたは把持モードであるかを判断する。   Based on the output from the sensor unit 170, the mode determination unit 114 determines whether the voice information display device 100 is used in a mounted state or used in a gripped state, and corresponds to each use state. It is determined whether the mounting mode or the gripping mode is selected.

通信制御部115は、通信部180による通信動作を制御する。具体的には、通信部180によるデータや制御情報等の送受信の制御等である。   The communication control unit 115 controls the communication operation by the communication unit 180. More specifically, the communication unit 180 controls transmission / reception of data, control information, and the like.

音声入力部120は、制御部110の制御によりマイクロフォン20から入力された音声信号を制御部110が処理するための音声データに変換し、制御部110に送出する。音声入力部120は、例えば、A/D変換部121および増幅部122を備えて構成される。増幅部122は、マイクロフォン20から入力される音声信号を増幅する、例えばオペアンプ等である。A/D変換部121は、増幅部122が増幅した音声信号を、A/D(Analog - Digital)変換し、制御部110に音声データを送出する。   The voice input unit 120 converts the voice signal input from the microphone 20 under the control of the control unit 110 into voice data to be processed by the control unit 110 and sends the voice data to the control unit 110. The voice input unit 120 includes, for example, an A / D conversion unit 121 and an amplification unit 122. The amplification unit 122 is, for example, an operational amplifier that amplifies the audio signal input from the microphone 20. The A / D conversion unit 121 performs A / D (Analog-Digital) conversion on the audio signal amplified by the amplification unit 122 and sends the audio data to the control unit 110.

記憶部130は、例えばフラッシュメモリやHDD(Hard Disk Drive)より構成され、音声情報表示装置100に必要な各種データや、マイクロフォン20等外部から入力される記録対象のデータが記憶され、制御部110の処理によって記憶動作や読み出し動作が行われる。記憶部130は音声情報表示装置100に内蔵されるものに限らず、所定のインターフェースによって接続される外部の記憶デバイスであってもよい。外部の記憶デバイスの一例としては、USB(Universal Serial Bus)端子に接続されるUSBメモリや外部HDD装置、所定のメモリカードスロットにより接続されるメモリカードなどである。   The storage unit 130 includes, for example, a flash memory or an HDD (Hard Disk Drive), and stores various data necessary for the audio information display device 100 and data to be recorded input from the outside such as the microphone 20. Through this process, a storage operation and a read operation are performed. The storage unit 130 is not limited to the one built in the audio information display device 100, and may be an external storage device connected by a predetermined interface. Examples of the external storage device include a USB memory connected to a USB (Universal Serial Bus) terminal, an external HDD device, and a memory card connected by a predetermined memory card slot.

表示部140は、例えば液晶表示素子や有機EL(Electro Luminescence)表示素子、およびそれらを駆動する回路ユニット等からなり、表示制御部111の制御により各種表示内容や表示形態が表示される。   The display unit 140 includes, for example, a liquid crystal display element, an organic EL (Electro Luminescence) display element, and a circuit unit that drives them, and displays various display contents and display forms under the control of the display control unit 111.

操作部150は、音声情報表示装置100に対してユーザが各種処理や動作指示を行うためのユーザインターフェースであり、例えば、押ボタン式や回転式の操作手段、または表示部140に重ねて設けられた図示しないタッチパネル操作部により構成される。操作部150が操作されることにより、操作に基づく信号が後述する操作制御部112に出力され、操作に基づく各部の動作や各種処理が実行される。   The operation unit 150 is a user interface for the user to perform various processes and operation instructions to the audio information display device 100. For example, the operation unit 150 is provided so as to overlap the push button type or rotary type operation unit or the display unit 140. It is comprised by the touchscreen operation part which is not shown in figure. When the operation unit 150 is operated, a signal based on the operation is output to the operation control unit 112 described later, and the operation of each unit and various processes based on the operation are executed.

センサ部170は、音声情報表示装置100において用いる各種センサにより構成され、各種センサにおける信号を制御部110に送出する。本実施形態においてセンサ部170は図4に示すように、加速度センサ171および照度センサ172を備える。センサ部170は、上記に加え、必要に応じて他のセンサを備えていてもよい。   The sensor unit 170 includes various sensors used in the audio information display device 100 and sends signals from the various sensors to the control unit 110. In the present embodiment, the sensor unit 170 includes an acceleration sensor 171 and an illuminance sensor 172 as shown in FIG. In addition to the above, the sensor unit 170 may include other sensors as necessary.

センサ部170は、加速度センサ171または照度センサ172により、音声情報表示装置100の状態を検出する。具体的には、加速度センサ171は音声情報表示装置100の対地向きにおける重力加速度に加えて、ユーザが音声情報表示装置100を手に把持している場合などに生じる複数方向の加速度を検出する。また、照度センサ172は、音声情報表示装置100が載置される場合の載置面に対向する位置に備えられることにより、載置された場合の照度がゼロであることを検出する。   The sensor unit 170 detects the state of the audio information display device 100 using the acceleration sensor 171 or the illuminance sensor 172. Specifically, the acceleration sensor 171 detects acceleration in a plurality of directions that occurs when the user holds the voice information display device 100 in his / her hand in addition to the gravitational acceleration of the voice information display device 100 facing the ground. The illuminance sensor 172 is provided at a position facing the placement surface when the audio information display device 100 is placed, and detects that the illuminance when placed is zero.

通信部180は、通信制御部115の制御により他の装置や基地局等との通信を行う装置であり、通信のためのアンテナも含む。通信部180の通信方式は、Wi−Fi方式、携帯電話向け通信方式に加えてブルートゥース方式等の短距離通信方式であってもよく、複数備えられていてもよい。   The communication unit 180 is a device that communicates with other devices, base stations, and the like under the control of the communication control unit 115, and includes an antenna for communication. A communication method of the communication unit 180 may be a short-range communication method such as a Bluetooth method in addition to a Wi-Fi method or a communication method for mobile phones, and a plurality of communication methods may be provided.

次に、図5から図18を用いて、本実施形態における処理を説明する。   Next, processing in the present embodiment will be described with reference to FIGS.

図5は、音声情報表示装置100における本発明に係る処理の全体のフローであり、図5のフローによる処理は、音声情報表示装置100の電源がONとなっている間、または音声情報表示装置100において、本実施形態の処理の実行が選択されている間は、逐次実行されている。   FIG. 5 is an overall flow of processing according to the present invention in the voice information display device 100. The processing according to the flow of FIG. 5 is performed while the power of the voice information display device 100 is turned on or the voice information display device. In 100, while execution of the process of this embodiment is selected, it is executed sequentially.

先ず、モード判断部114は、センサ部170からの入力信号に基づいてモード判断処理を実行する(ステップS10)。ステップS10におけるモード判断処理の例を図6および図7を用いて説明する。モード判断処理は、音声情報表示装置100の使用状態が適切に判断可能であればその処理形態は限定されない。ここでは、モード判断処理の実施例として図6により第1のモード判断処理例、図7により第2のモード判断処理例を説明する。   First, the mode determination unit 114 performs a mode determination process based on an input signal from the sensor unit 170 (step S10). An example of the mode determination process in step S10 will be described with reference to FIGS. The mode determination process is not limited as long as the usage state of the audio information display device 100 can be appropriately determined. Here, as an example of the mode determination process, a first mode determination process example will be described with reference to FIG. 6, and a second mode determination process example will be described with reference to FIG.

図6において、モード判断部114は加速度センサ171からの出力信号を逐次分析しており、その分析結果に基づいて所定時間以上の加速度の変動があるか否かを判断する(ステップS101)。ここでいう所定時間とは、音声情報表示装置100が物体上に載置されているか、ユーザによる把持等によって載置されていない状態で用いられているかを判断可能な時間であり、具体的には3秒以上などである。   In FIG. 6, the mode determination unit 114 sequentially analyzes the output signal from the acceleration sensor 171 and determines whether or not there is a change in acceleration over a predetermined time based on the analysis result (step S101). The predetermined time here is a time during which it is possible to determine whether the audio information display device 100 is placed on an object or not used due to gripping by the user, and specifically. Is 3 seconds or more.

ステップS101の判断において、所定時間以上の加速度の変動が無いと判断された場合(ステップS101:No)、モード判断部114は、載置モードであると判断する。ステップS101の判断において、所定時間以上の加速度の変動があると判断された場合(ステップS101:Yes)、モード判断部114は、把持モードであると判断する。   If it is determined in step S101 that there is no change in acceleration for a predetermined time or longer (step S101: No), the mode determination unit 114 determines that the placement mode is set. When it is determined in step S101 that there is a change in acceleration for a predetermined time or more (step S101: Yes), the mode determination unit 114 determines that the grip mode is set.

図7においては、図6におけるモード判断処理の例に加えて、ステップS101がNoの場合に、モード判断部114は音声情報表示装置100の底面に配置されている照度センサ172が光を検出しているか否かを判断する(ステップS111)。音声情報表示装置100の底面とは、一例としては図1における表示部140の表示面とは反対側の面であり、ユーザが音声情報表示装置100を物体に載置したときに物体と接する面である。   In FIG. 7, in addition to the example of the mode determination process in FIG. 6, when step S <b> 101 is No, the mode determination unit 114 detects light by the illuminance sensor 172 disposed on the bottom surface of the audio information display device 100. It is judged whether it is (step S111). The bottom surface of the audio information display device 100 is, for example, a surface opposite to the display surface of the display unit 140 in FIG. 1, and a surface that comes into contact with the object when the user places the audio information display device 100 on the object. It is.

ステップS111の判断において、照度センサ172が光を検出していないと判断された場合(ステップS111:No)、モード判断部114は、載置モードであると判断する。ステップS111の判断において、照度センサ172が光を検出していると判断された場合(ステップS111:Yes)、モード判断部114は、把持モードであると判断する。   If it is determined in step S111 that the illuminance sensor 172 does not detect light (step S111: No), the mode determination unit 114 determines that the placement mode is set. If it is determined in step S111 that the illuminance sensor 172 detects light (step S111: Yes), the mode determination unit 114 determines that the grip mode is set.

ステップS10におけるモード判断処理は、他の例として、音声情報表示装置100の底面に、載置されることによって押圧される機械的スイッチを備え、機械的スイッチのオンとオフによってモードを判断する方法、ユーザが把持している場合に押圧される機械的スイッチや温度センサによる把持検出によるモード判断等でも可能である。   As another example, the mode determination process in step S10 includes a mechanical switch that is pressed by being placed on the bottom surface of the audio information display device 100, and the mode is determined by turning on and off the mechanical switch. It is also possible to make a mode determination based on grip detection by a mechanical switch or a temperature sensor that is pressed when the user is gripping.

また、図6および図7によるモード判断処理においては、ステップS101において所定時間以上の加速度変動があった場合であっても、加速度センサ171が検出している重力加速度の方向が所定時間以上、表示部140の表示面とは反対方向を中心としている場合は、把持モードとしなくともよい。この場合は、例えば音声情報表示装置100をユーザが運搬している状態ではあるが、表示部140の表示画面を見ていない場合である。   Further, in the mode determination process according to FIGS. 6 and 7, even if there is an acceleration fluctuation for a predetermined time or more in step S101, the direction of the gravitational acceleration detected by the acceleration sensor 171 is displayed for a predetermined time or more. When the direction opposite to the display surface of the unit 140 is the center, the grip mode may not be set. In this case, for example, the user is carrying the audio information display device 100, but the user is not looking at the display screen of the display unit 140.

図5に戻り、ステップS10においてモードが判断された後、音声分析部113は表示対象の音声信号がマイクロフォン20に入力されたか否かを判断する(ステップS20)。表示対象の音声信号とは、一例としては音圧分析部1131の解析に基づく所定音圧以上の音声信号であり、例えば音圧レベルが60dB以上の音声信号を対象とする。この音圧レベルは任意に設定されてもよく、例えばユーザの聴覚レベルに合わせて設定されてもよい。   Returning to FIG. 5, after the mode is determined in step S <b> 10, the sound analysis unit 113 determines whether or not a sound signal to be displayed is input to the microphone 20 (step S <b> 20). The audio signal to be displayed is, for example, an audio signal having a predetermined sound pressure or higher based on the analysis of the sound pressure analyzing unit 1131. For example, an audio signal having a sound pressure level of 60 dB or higher is targeted. This sound pressure level may be arbitrarily set, for example, may be set according to the user's hearing level.

ステップS20において入力されていないと判断された場合(ステップS20:No)、ステップS10に推移し、ステップS20がYesとなるまで、モード判断(ステップS10)および音声信号入力判断(ステップS20)が繰り返される。ステップS20において入力されたと判断された場合(ステップS20:Yes)、音声分析部113は、ステップS20において判断された音声信号に対して、音声分析処理を実行する(ステップS30)。   When it is determined in step S20 that the input has not been made (step S20: No), the process proceeds to step S10, and the mode determination (step S10) and the audio signal input determination (step S20) are repeated until step S20 becomes Yes. It is. When it is determined in step S20 that the input has been made (step S20: Yes), the voice analysis unit 113 performs a voice analysis process on the voice signal determined in step S20 (step S30).

図8は、ステップS30における音声分析処理の例である。図8における各々の分析処理は、目的に応じて選択されて実行されてもよく、分析処理の順序は任意であり同時に実行されてもよい。本実施形態における最小限の構成は、ステップS303における音源方向分析処理である。   FIG. 8 is an example of the voice analysis process in step S30. Each analysis process in FIG. 8 may be selected and executed according to the purpose, and the order of the analysis processes is arbitrary and may be executed simultaneously. The minimum configuration in the present embodiment is the sound source direction analysis process in step S303.

先ず、音声分析部113はステップS20において判断された音声信号に対して、その最大音圧レベルを分析する(ステップS301)。ステップS301の分析処理は、ステップS20の処理と同時に実行されてもよい。   First, the voice analysis unit 113 analyzes the maximum sound pressure level of the voice signal determined in step S20 (step S301). The analysis process of step S301 may be performed simultaneously with the process of step S20.

次に、音声分析部113における周波数分析部1132は、ステップS20において判断された音声信号の周波数分布を分析する(ステップS302)。ステップS302において周波数分析される範囲は、ステップS20の判断に基づく所定音圧以上の音声信号が入力された範囲、またはその範囲を所定時間毎に分割した範囲などである。   Next, the frequency analysis unit 1132 in the voice analysis unit 113 analyzes the frequency distribution of the voice signal determined in step S20 (step S302). The range in which the frequency analysis is performed in step S302 is a range in which an audio signal having a predetermined sound pressure or higher based on the determination in step S20 is input, or a range obtained by dividing the range every predetermined time.

次に、音声分析部113における音方向分析部1133は、ステップS20において判断された音声信号に対して、音源方向を分析する(ステップS303)。ステップS303の分析処理について図9および図10を用いて説明する。   Next, the sound direction analysis unit 1133 in the sound analysis unit 113 analyzes the sound source direction with respect to the sound signal determined in step S20 (step S303). The analysis process in step S303 will be described with reference to FIGS.

マイクロフォン20は、例えば図9のように音声情報表示装置100の長辺を縦方向とした場合に、右上の角部にマイクロフォン20A、右下にマイクロフォン20B、左下にマイクロフォン20C、左上にマイクロフォン20Dを備える。マイクロフォン20の位置は、必ずしも筐体10の4隅に限定されず、筐体10の中心からみて4方向に備えられ、音源の方向が判別可能な配置であればよい。   For example, when the long side of the audio information display device 100 is in the vertical direction as shown in FIG. 9, the microphone 20 has a microphone 20A at the upper right corner, a microphone 20B at the lower right, a microphone 20C at the lower left, and a microphone 20D at the upper left. Prepare. The positions of the microphones 20 are not necessarily limited to the four corners of the casing 10, and may be any arrangement as long as the microphones 20 are provided in four directions when viewed from the center of the casing 10 and the direction of the sound source can be determined.

図9における矢印が指す方向A〜Hは、マイクロフォン20によって音源の方向が特定される方向の例を示している。実際の利用形態は、表示部140が地面に対して水平となるように載置または把持されるため、方向A〜Hは、音声情報表示装置100を中心として地面と水平方向の向きとなる。   9 indicate examples of directions in which the direction of a sound source is specified by the microphone 20. In an actual usage mode, the display unit 140 is placed or gripped so as to be horizontal with respect to the ground, so the directions A to H are oriented in the horizontal direction with respect to the ground with the audio information display device 100 as the center.

図9に示すようなマイクロフォン20の配置である場合、例えば、マイクロフォン20Aは、B方向を中心に指向性を有し、マイクロフォン20Bは、D方向を中心に指向性を有する。また、マイクロフォン20Cは、F方向を中心に指向性を有し、マイクロフォン20Dは、H方向を中心に指向性を有する。   In the case of the arrangement of the microphones 20 as shown in FIG. 9, for example, the microphone 20 </ b> A has directivity around the B direction, and the microphone 20 </ b> B has directivity around the D direction. Further, the microphone 20C has directivity around the F direction, and the microphone 20D has directivity around the H direction.

ステップS303における音源方向分析処理としては、先ず、音声分析部113は音声入力部120から入力されたマイクロフォン20A〜20Dの各々に対応する音声データに基づき、入力された音声信号の音圧が最大のマイクロフォンを特定する(ステップS3031)。ステップS3031の処理を行うときに比較する各マイクロフォン20の音声データは、所定の時間幅における最大値を検出してもよく、所定の時間幅の積分値における最大値を検出してもよい。また、複数のマイクロフォン20間の最大値の差が所定以上小さい場合、例えば最大音圧の差が2dB以内である場合は、それらのマイクロフォン20の音圧は同一であるとしてもよい。   As the sound source direction analysis processing in step S303, first, the voice analysis unit 113 has the maximum sound pressure of the input voice signal based on the voice data corresponding to each of the microphones 20A to 20D input from the voice input unit 120. A microphone is specified (step S3031). For the audio data of each microphone 20 to be compared when performing the process of step S3031, the maximum value in a predetermined time width may be detected, or the maximum value in the integrated value of the predetermined time width may be detected. In addition, when the difference between the maximum values of the plurality of microphones 20 is smaller than a predetermined value, for example, when the difference between the maximum sound pressures is within 2 dB, the sound pressures of the microphones 20 may be the same.

ステップS3031において、音圧が最大のマイクロフォン20が特定できたと判断された場合(ステップS3031:Yes)、音声分析部113は音圧が最大と特定されたマイクロフォン20の方向を音源方向であると判断する(ステップS3035)。図9における矢印が指す方向A〜Hは、マイクロフォン20によって音源の方向が特定される方向の例を示している。実際の利用形態は、表示部140が地面に対して水平となるように配置または把持されるため、方向A〜Hは、音声情報表示装置100を中心として地面と水平方向の向きとなる。例えば、図9においてマイクロフォン20Aが最大音圧の入力されたマイクロフォンであると特定された場合は、方向Bが音源方向であると判断される。同様に、マイクロフォン20Bの場合は方向D、マイクロフォン20Cの場合は方向F、マイクロフォン20Dの場合は方向Hであると判断される。   If it is determined in step S3031 that the microphone 20 having the maximum sound pressure has been identified (step S3031: Yes), the voice analysis unit 113 determines that the direction of the microphone 20 identified as having the maximum sound pressure is the sound source direction. (Step S3035). 9 indicate examples of directions in which the direction of a sound source is specified by the microphone 20. In an actual usage mode, the display unit 140 is arranged or gripped so as to be horizontal with respect to the ground, so the directions A to H are oriented in the horizontal direction with respect to the ground with the audio information display device 100 as the center. For example, when the microphone 20A is identified as the microphone to which the maximum sound pressure is input in FIG. 9, the direction B is determined to be the sound source direction. Similarly, it is determined that the direction is D in the case of the microphone 20B, the direction F in the case of the microphone 20C, and the direction H in the case of the microphone 20D.

ステップS3031において、音圧が最大のマイクロフォン20が特定できないと判断された場合(ステップS3031:No)、音声分析部113は、音圧が他より大きい同一音圧の2つのマイクロフォン20が特定できるか否かを判断する(ステップS3032)。ステップS3032の処理においても、同一音圧と判断する誤差はステップS3031と同様でよい。ステップS3032において、音圧が他より大きい同一音圧の2つのマイクロフォン20が特定できた場合(ステップS3032:Yes)、音声分析部113は音圧が他より大きい同一音圧の2つのマイクロフォン20の間の方向を音源方向であると判断する(ステップS3033)。   If it is determined in step S3031 that the microphone 20 having the maximum sound pressure cannot be specified (step S3031: No), the voice analysis unit 113 can specify two microphones 20 having the same sound pressure that is higher than the other sound pressures. It is determined whether or not (step S3032). Also in the process of step S3032, the error for determining the same sound pressure may be the same as in step S3031. In step S3032, if two microphones 20 having the same sound pressure larger than the other can be identified (step S3032: Yes), the voice analysis unit 113 determines that the two microphones 20 having the same sound pressure larger than the other sound pressures. The direction between them is determined to be the sound source direction (step S3033).

ステップS3033の判断は、例えば、図9においてマイクロフォン20Aとマイクロフォン20Bが他より音圧の大きい同一音圧の2つのマイクロフォン20であると特定された場合は、方向Cが音源方向であると判断される。同様に、マイクロフォン20Bとマイクロフォン20Cが他より音圧の大きい同一音圧の2つのマイクロフォン20であると特定された場合は、方向Eが音源方向であると判断され、マイクロフォン20Cとマイクロフォン20Dが他より音圧の大きい同一音圧の2つのマイクロフォン20であると特定された場合は、方向Gが音源方向であると判断され、マイクロフォン20Dとマイクロフォン20Aが他より音圧の大きい同一音圧の2つのマイクロフォン20であると特定された場合は、方向Aが音源方向であると判断される。   The determination in step S3033 is, for example, when the microphone 20A and the microphone 20B are identified as the two microphones 20 having the same sound pressure that is higher than the other in FIG. 9, the direction C is determined to be the sound source direction. The Similarly, when it is determined that the microphone 20B and the microphone 20C are two microphones 20 having the same sound pressure that is higher than the other, the direction E is determined to be the sound source direction, and the microphone 20C and the microphone 20D are the other. When it is specified that the two microphones 20 have the same sound pressure with a higher sound pressure, the direction G is determined to be the sound source direction, and the microphone 20D and the microphone 20A have the same sound pressure of 2 with a higher sound pressure than the other. When it is specified that there are two microphones 20, it is determined that the direction A is the sound source direction.

ステップS3032において、音圧が他より大きい同一音圧の2つのマイクロフォン20が特定できなかった場合(ステップS3032:No)、音声分析部113は音源の方向が特定できないと判断する(ステップS3034)。   In step S3032, when two microphones 20 having the same sound pressure higher than the others cannot be identified (step S3032: No), the voice analysis unit 113 determines that the direction of the sound source cannot be identified (step S3034).

図8に戻り、次に音声分析部113はステップS20において判断された音声信号の音種別を分析する(ステップS304)。ステップS304の分析処理は、音のパターン認識によるもので、パターンを照合するデータベースは、記憶部130または通信部180を介した通信によって利用可能となる外部サーバ等に格納されている。また、照合データベースにおける音のパターンは、ユーザによって追加されてもよい。具体的には、緊急車両のサイレン音、各種警報機の警報音、家庭内電気製品の報知音などが照合される。   Returning to FIG. 8, the voice analysis unit 113 analyzes the sound type of the voice signal determined in step S20 (step S304). The analysis processing in step S304 is based on sound pattern recognition, and a database for collating patterns is stored in an external server or the like that can be used by communication via the storage unit 130 or the communication unit 180. The sound pattern in the verification database may be added by the user. Specifically, the siren sound of an emergency vehicle, the alarm sound of various alarm devices, the alarm sound of home appliances, etc. are collated.

図5に戻り、ステップS30において音声信号が分析された後、表示制御部111は、ステップS10において判断されたモードに基づき、ステップS30における分析結果を、表示部140に表示させる(ステップS40)。   Returning to FIG. 5, after the audio signal is analyzed in step S30, the display control unit 111 displays the analysis result in step S30 on the display unit 140 based on the mode determined in step S10 (step S40).

ステップS40における表示処理の例を図11から図18を用いて説明する。表示処理は、モードによってユーザが音声信号の存在を適切に視認できる表示処理であればその表示形態は限定されない。ここでは、表示処理の例として図11から図15により第1の表示処理例、図16および図17により第2の表示処理例、図18により第3の表示処理例を説明する。   An example of the display process in step S40 will be described with reference to FIGS. The display form is not limited as long as the display process allows the user to appropriately recognize the presence of the audio signal depending on the mode. Here, as an example of the display process, a first display process example will be described with reference to FIGS. 11 to 15, a second display process example with reference to FIGS. 16 and 17, and a third display process example with reference to FIG.

図11は、ステップS303における音源方向分析処理において、音源方向が図9における方向Bであると判断された場合の表示例である。表示図形300は音源方向から放射状に表示されており、音圧レベルを表示する表示図形300Aに加えて、順に表示が切り替わることによって音源方向を表現する表示図形300R1〜300R4から構成される。図11においては、最大音圧レベルが80dBの音声信号が方向Bより入力されたことを示している。   FIG. 11 is a display example when the sound source direction is determined to be the direction B in FIG. 9 in the sound source direction analysis processing in step S303. The display graphic 300 is displayed radially from the sound source direction, and includes display graphics 300R1 to 300R4 expressing the sound source direction by switching the display in order in addition to the display graphic 300A displaying the sound pressure level. FIG. 11 shows that an audio signal having a maximum sound pressure level of 80 dB is input from direction B.

図12は、ステップS303における音源方向分析処理において、音源方向が図9における方向Aであると判断された場合の表示例である。図12においても表示図形300は図11と同様であり、さらに音種別分析部1134より図8におけるステップS304で分析された音源種別が表示情報310として表示されている。図12においては、最大音圧レベルが80dBの救急車(Ambulance)のサイレン音と認識された音声信号が方向Aより入力されたことを示している。   FIG. 12 is a display example when the sound source direction is determined to be the direction A in FIG. 9 in the sound source direction analysis processing in step S303. 12, the display graphic 300 is the same as that in FIG. 11, and the sound source type analyzed in step S <b> 304 in FIG. 8 by the sound type analysis unit 1134 is displayed as the display information 310. FIG. 12 shows that an audio signal recognized as a siren sound of an ambulance with a maximum sound pressure level of 80 dB is input from direction A.

図13により、第1の表示処理例を説明すると、先ず表示制御部111は、表示対象となる音声信号のモードが載置であるか把持モードであるかを判断する(ステップS401)。把持モードであると判断された場合(ステップS401:把持モード)、ステップS402からステップS406に示す把持モードに対応した表示を実行する。載置モードであると判断された場合(ステップS401:載置モード)、ステップS407からステップS411に示す載置モードに対応した表示を実行する。   The first display processing example will be described with reference to FIG. 13. First, the display control unit 111 determines whether the mode of the audio signal to be displayed is the placement mode or the grip mode (step S401). When it is determined that the gripping mode is set (step S401: gripping mode), display corresponding to the gripping mode shown in steps S402 to S406 is executed. When it is determined that the placement mode is set (step S401: placement mode), display corresponding to the placement mode shown in steps S407 to S411 is executed.

ステップS401において把持モードであると判断された場合、表示制御部111は表示時間を設定するタイマのカウントを0にリセットしタイマのカウントを開始する(ステップS402)。次に、音源方向に該当する表示図形300R1から300R4を順に表示させる(ステップS403)。ステップS403の表示と同時に、表示図形300Aおよび表示情報310を表示させてもよい。   When it is determined in step S401 that the grip mode is selected, the display control unit 111 resets the count of the timer for setting the display time to 0 and starts counting the timer (step S402). Next, display figures 300R1 to 300R4 corresponding to the sound source direction are displayed in order (step S403). Simultaneously with the display in step S403, the display graphic 300A and the display information 310 may be displayed.

ステップS403の表示は、図14における時間が0秒から8秒の表示に該当する。図14に示す例においては、表示図形300R1から300R4を0.5秒間隔で順に表示させている。   The display in step S403 corresponds to a display in which the time in FIG. 14 is 0 second to 8 seconds. In the example shown in FIG. 14, display graphics 300R1 to 300R4 are sequentially displayed at intervals of 0.5 seconds.

次に、表示制御部111はタイマのカウントが時間t1に達したか否かを判断する(ステップS404)。時間t1は、把持モードとして予め設定されており、図14に示す例においては8秒として設定されている。ステップS404において時間t1に達していないと判断された場合(ステップS404:No)、時間t1となるまでステップS403の表示を継続させる。ステップS404において時間t1に達したと判断された場合(ステップS404:Yes)、表示制御部111はステップS403に基づく表示を終了させ、表示図形300R4を継続的に表示させる(ステップS405)。   Next, the display control unit 111 determines whether or not the timer count has reached the time t1 (step S404). The time t1 is set in advance as the gripping mode, and is set as 8 seconds in the example shown in FIG. If it is determined in step S404 that the time t1 has not been reached (step S404: No), the display in step S403 is continued until time t1 is reached. When it is determined in step S404 that the time t1 has been reached (step S404: Yes), the display control unit 111 ends the display based on step S403 and continuously displays the display graphic 300R4 (step S405).

ステップS405の表示は、図14における時間が8秒から10秒の表示に該当する。図14に示す例においては、表示図形300R4を2秒間表示させている。   The display in step S405 corresponds to a display in which the time in FIG. 14 is 8 seconds to 10 seconds. In the example shown in FIG. 14, the display graphic 300R4 is displayed for 2 seconds.

次に、表示制御部111はタイマのカウントが時間t2に達したか否かを判断する(ステップS406)。時間t2は、把持モードとして予め設定されており、図14に示す例においては10秒として設定されている。ステップS406において時間t2に達していないと判断された場合(ステップS406:No)、時間t2となるまでステップS405の表示を継続させる。ステップS406において時間t2に達したと判断された場合(ステップS406:Yes)、表示制御部111はステップS405に基づく表示を終了させる。   Next, the display control unit 111 determines whether or not the timer count has reached the time t2 (step S406). The time t2 is set in advance as a gripping mode, and is set as 10 seconds in the example shown in FIG. If it is determined in step S406 that the time t2 has not been reached (step S406: No), the display in step S405 is continued until time t2. When it is determined in step S406 that the time t2 has been reached (step S406: Yes), the display control unit 111 ends the display based on step S405.

ステップS401において載置モードであると判断された場合、表示制御部111は表示時間を設定するタイマのカウントを0にリセットしタイマのカウントを開始する(ステップS407)。次に、音源方向に該当する表示図形300R1から300R4を順に表示させる(ステップS408)。ステップS408の表示と同時に、表示図形300Aおよび表示情報310を表示させてもよい。   If it is determined in step S401 that it is the placement mode, the display control unit 111 resets the count of the timer for setting the display time to 0 and starts the timer count (step S407). Next, display figures 300R1 to 300R4 corresponding to the sound source direction are displayed in order (step S408). Simultaneously with the display in step S408, the display graphic 300A and the display information 310 may be displayed.

ステップS408の表示は、図15における時間が0秒から20秒の表示に該当する。図15に示す例においては、表示図形300R1から300R4を0.5秒間隔で順に表示させている。   The display in step S408 corresponds to a display in which the time in FIG. 15 is 0 second to 20 seconds. In the example shown in FIG. 15, display graphics 300R1 to 300R4 are displayed in order at intervals of 0.5 seconds.

次に、表示制御部111はタイマのカウントが時間t3に達したか否かを判断する(ステップS409)。時間t3は、載置モードとして予め設定されており、図15に示す例においては20秒として設定されている。ステップS408において時間t3に達していないと判断された場合(ステップS408:No)、時間t3となるまでステップS408の表示を継続させる。ステップS409において時間t3に達したと判断された場合(ステップS409:Yes)、表示制御部111はステップS408に基づく表示を終了させ、表示図形300R4を継続的に表示させる(ステップS410)。   Next, the display control unit 111 determines whether or not the timer count has reached the time t3 (step S409). The time t3 is set in advance as the placement mode, and is set as 20 seconds in the example shown in FIG. If it is determined in step S408 that the time t3 has not been reached (step S408: No), the display in step S408 is continued until the time t3 is reached. When it is determined in step S409 that the time t3 has been reached (step S409: Yes), the display control unit 111 ends the display based on step S408 and continuously displays the display graphic 300R4 (step S410).

ステップS410の表示は、図15における時間が20秒から60秒の表示に該当する。図15に示す例においては、表示図形300R4を40秒間表示させている。   The display in step S410 corresponds to a display in which the time in FIG. 15 is 20 seconds to 60 seconds. In the example shown in FIG. 15, the display graphic 300R4 is displayed for 40 seconds.

次に、表示制御部111はタイマのカウントが時間t4に達したか否かを判断する(ステップS411)。時間t4は、載置モードとして予め設定されており、図15に示す例においては60秒として設定されている。ステップS411において時間t4に達していないと判断された場合(ステップS411:No)、時間t4となるまでステップS410の表示を継続させる。ステップS411において時間t4に達したと判断された場合(ステップS411:Yes)、表示制御部111はステップS410に基づく表示を終了させる。   Next, the display control unit 111 determines whether or not the timer count has reached the time t4 (step S411). The time t4 is set in advance as the placement mode, and is set as 60 seconds in the example shown in FIG. If it is determined in step S411 that the time t4 has not been reached (step S411: No), the display in step S410 is continued until time t4 is reached. When it is determined in step S411 that the time t4 has been reached (step S411: Yes), the display control unit 111 ends the display based on step S410.

図16に示す表示例は、図11に示す表示例に加えて音声履歴表示320が加えて表示されている。音声履歴表示320は、一例としてその横軸が時間であり縦軸が最大音圧レベルを示している。音声履歴表示320は、図5におけるステップS20において入力されたと判断された音声信号の有無に関わらず、所定の時間幅の履歴について表示される。ここで表示される音声信号の履歴は、音声分析部113が分析した結果を入力された時間と対応付けて記憶部130に記憶されているものであり、音圧レベルや周波数分布、音源方向、音種別等が表示対象となる。   In the display example shown in FIG. 16, an audio history display 320 is displayed in addition to the display example shown in FIG. 11. In the audio history display 320, for example, the horizontal axis indicates time, and the vertical axis indicates the maximum sound pressure level. The audio history display 320 is displayed for a history of a predetermined time width regardless of the presence or absence of the audio signal determined to have been input in step S20 in FIG. The history of the audio signal displayed here is stored in the storage unit 130 in association with the input time of the result analyzed by the audio analysis unit 113, and the sound pressure level, frequency distribution, sound source direction, The sound type and the like are displayed.

図16に示す音声履歴表示320の例としては、横軸の時間幅が60秒から180秒程度であることが好ましい。これ以上時間幅が長いと、表示対象となる履歴が多く表示され、視認困難となるためである。また、記憶部130には表示される時間幅に関わらずさらに長い時間帯に対する履歴が記憶されていてもよい。また、音声履歴表示320は、操作部150による操作により記憶部130に記憶されている履歴を任意に表示可能としてもよい。   As an example of the audio history display 320 shown in FIG. 16, the time width on the horizontal axis is preferably about 60 seconds to 180 seconds. This is because if the time width is longer than this, a large amount of history to be displayed is displayed, making it difficult to view. The storage unit 130 may store a history for a longer time period regardless of the displayed time width. Further, the audio history display 320 may arbitrarily display a history stored in the storage unit 130 by an operation by the operation unit 150.

図16において、音声履歴表示320の時間幅を60秒とし、音声履歴表示320の左方向が60秒前であり右方向を現在時刻として説明すると、60秒前から現在時刻までの間において、音声信号表示321aから321dまでの履歴が表示されている。また、表示図形300は音声信号表示321dに対する表示である。   In FIG. 16, when the time width of the audio history display 320 is 60 seconds, the left direction of the audio history display 320 is 60 seconds ago and the right direction is the current time, the audio is displayed between 60 seconds ago and the current time. The history from signal display 321a to 321d is displayed. The display graphic 300 is a display for the audio signal display 321d.

第2の表示処理例は図17に示すように、図13における第1の表示処理例に加え、ステップS401において載置モードであると判断された場合に、表示制御部111は時間幅t6の音声履歴表示320を表示させる(ステップS422)ことが異なる。   As shown in FIG. 17, in the second display processing example, in addition to the first display processing example in FIG. 13, when it is determined that the placement mode is set in step S401, the display control unit 111 sets the time width t6. The audio history display 320 is displayed (step S422).

また、第3の表示処理例は、図18に示すように、図17における第2の表示処理例に加え、ステップS401において把持モードであると判断された場合に、表示制御部111は時間幅t5の音声履歴表示320を表示させる(ステップS421)ことが異なる。この場合における時間幅t5は時間幅t6より短い時間幅であり、例えば10秒から30秒程度であることが好ましい。   In addition to the second display processing example in FIG. 17, the third display processing example displays the time width when the display control unit 111 determines that it is the gripping mode in step S <b> 401. The audio history display 320 at t5 is displayed (step S421). In this case, the time width t5 is shorter than the time width t6, and is preferably about 10 to 30 seconds, for example.

このように、音声情報表示装置100の状態に応じて、音声信号に関する表示の表示時間を変えた表示を行うことにより、表示部140に表示されたにも関わらず、ユーザがその音声信号の存在に気付かなかったという状態を低減することができる。   In this way, by performing display in which the display time of the display related to the audio signal is changed according to the state of the audio information display device 100, the user can display the presence of the audio signal despite being displayed on the display unit 140. It is possible to reduce the state that the user did not notice.

また、音声情報表示装置100の利用状態が、配置モードであると判断されている場合は、把持モードであると判断されている場合に比べて長い時間、表示図形300を表示したり、長い時間幅を持った音声履歴表示320を表示する。このため、ユーザは、音声情報表示装置100を頻繁に視認せずに他の作業を行っているような状態であっても、音声信号の存在を的確に確認することができる。 In addition, when the usage state of the audio information display device 100 is determined to be the arrangement mode, the display graphic 300 is displayed for a longer time or longer than the case where the usage mode is determined to be the grip mode. An audio history display 320 having a width is displayed. For this reason, the user can accurately confirm the presence of the audio signal even in a state where other work is being performed without frequently viewing the audio information display device 100.

本発明の実施の形態は、その要旨を逸脱しない限り、様々に変更可能である。例えば、表示制御部111による表示形態は、図11や図12の例に限定されず、例えば表示図形300R1から300R4は、表示対象となる音声信号を構成する周波数によって表示色を変更してもよい。この場合の構成周波数は、周波数分析部1132により図8におけるステップS302で行われる。   The embodiment of the present invention can be variously modified without departing from the gist thereof. For example, the display form by the display control unit 111 is not limited to the examples in FIG. 11 and FIG. 12. . The component frequency in this case is performed by the frequency analysis unit 1132 in step S302 in FIG.

また、表示時間を設定する時間t1から時間t4や表示時間幅を設定するt5およびt6は、任意に設定可能であり、ユーザの操作によって変更可能としてもよい。また、上記実施形態においては、載置モードにおける表示時間および表示時間幅を把持モードにおける表示時間および表示時間幅より長く設定したが、ユーザの表示確認タイミングによっては、把持モードにおける表示時間よび表示時間幅を載置モードにおける表示時間より長く設定してもよい。   Further, the time t1 to the time t4 for setting the display time and the times t5 and t6 for setting the display time width can be arbitrarily set, and may be changed by a user operation. In the above embodiment, the display time and the display time width in the placement mode are set longer than the display time and the display time width in the grip mode. However, depending on the display confirmation timing of the user, the display time and the display time in the grip mode are set. The width may be set longer than the display time in the placement mode.

また、上記実施形態においては、図13におけるステップS402からステップS406がYesまでの間、およびステップS407からステップS411がYesまでの間に、単一の音声信号が入力された場合について説明した。しかし、これらの間に連続的に複数の音声信号が入力されることもある。このような場合、各々の音声信号に基づくステップS405およびステップS410における表示図形300R4の表示が複数重畳しているような表示としてもよい。   Moreover, in the said embodiment, the case where the single audio | voice signal was input between step S402 in FIG. 13 from step S406 to Yes and between step S407 to step S411 Yes was demonstrated. However, a plurality of audio signals may be input continuously between them. In such a case, it is good also as a display which the display figure 300R4 display in step S405 and step S410 based on each audio | voice signal has superimposed on two or more.

20:マイクロフォン、100:音声情報表示装置、110:制御部、111:表示制御部、112:操作制御部、113:音声分析部、114:モード判断部、120:音声入力部、140:表示部、170:センサ部 20: Microphone, 100: Audio information display device, 110: Control unit, 111: Display control unit, 112: Operation control unit, 113: Audio analysis unit, 114: Mode determination unit, 120: Audio input unit, 140: Display unit , 170: Sensor unit

Claims (6)

音声信号が入力される音声入力部、
前記音声入力部に入力された音声信号を分析する音声分析部、
装置の状態を検出するセンサ部、
前記センサ部からの出力に基づき、装置が載置された状態で使用されている場合の載置モードおよび装置が載置されていない状態で使用されている把持モードのいずれかであるかを判断するモード判断部、
前記モード判断部の判断結果に基づき、前記載置モードである場合は、前記音声分析部において分析された音声信号に基づく表示を第1の時間表示させ、前記把持モードである場合は、前記音声信号部において分析された音声信号に基づく表示を前記第1の表示時間とは異なる第2の時間表示させる表示制御部、
を備えることを特徴とする音声情報表示装置。
An audio input unit to which an audio signal is input,
A voice analysis unit for analyzing a voice signal input to the voice input unit;
A sensor unit for detecting the state of the device,
Based on the output from the sensor unit, it is determined whether the mounting mode is used when the device is mounted or the gripping mode is used when the device is not mounted. Mode decision unit to
Based on the determination result of the mode determination unit, the display based on the audio signal analyzed by the audio analysis unit is displayed for a first time in the case of the placement mode, and the audio in the case of the grip mode. A display control unit for displaying a display based on the audio signal analyzed in the signal unit for a second time different from the first display time;
An audio information display device comprising:
前記表示制御部は、前記第1の時間を前記第2の時間より長い時間として、前記音声分析部において分析された音声信号に基づく表示を行う、
ことを特徴とする請求項1に記載の音声情報表示装置。
The display control unit performs display based on the audio signal analyzed in the audio analysis unit, with the first time being longer than the second time.
The audio information display device according to claim 1.
前記表示制御部は、前記音声信号に基づく表示として、前記音声信号の履歴情報を表示させる、
ことを特徴とする請求項1または請求項2に記載の音声情報表示装置。
The display control unit displays history information of the audio signal as a display based on the audio signal.
The voice information display device according to claim 1 or 2, wherein
前記音声入力部は、複数のマイクロフォンからの音声信号が入力され、
前記音声分析部は、前記音声入力部に入力された前記複数のマイクロフォンからの音声信号に基づき音声信号が発せられた音源方向を分析し、
前記表示制御部は、前記音声分析部において分析された音声信号の音源方向を示す表示を前記音声信号に基づく表示として表示させる、
ことを特徴とする、請求項1から請求項3のいずれか1項に記載の音声情報表示装置。
The audio input unit receives audio signals from a plurality of microphones,
The voice analysis unit analyzes a sound source direction in which a voice signal is emitted based on voice signals from the plurality of microphones input to the voice input unit,
The display control unit displays a display indicating a sound source direction of the audio signal analyzed by the audio analysis unit as a display based on the audio signal;
The voice information display device according to any one of claims 1 to 3, wherein
装置の状況を検出する検出ステップ、
前記検出ステップにおいて検出された装置の状況に基づき、装置が載置された状態で使用されている場合の載置モードおよび装置が載置されていない状態で使用されている把持モードのいずれかであるかを判断するモード判断ステップ、
入力された音声信号を分析する分析ステップ、
前記モード判断ステップにおける判断結果に基づき、前記載置モードである場合は、前記分析ステップにおいて分析された音声信号に基づく表示を第1の時間表示させ、前記把持モードである場合は、前記分析ステップにおいて分析された音声信号に基づく表示を前記第1の表示時間とは異なる第2の時間表示させる表示ステップ、
を備えることを特徴とする音声情報表示方法。
A detection step for detecting the status of the device;
Based on the status of the device detected in the detection step, either the placement mode when the device is used while being placed or the gripping mode that is used when the device is not placed A mode determination step for determining whether there is,
An analysis step for analyzing the input audio signal;
Based on the determination result in the mode determination step, when the display mode is the previous mode, the display based on the audio signal analyzed in the analysis step is displayed for a first time, and when the mode is the grip mode, the analysis step A display step of displaying a display based on the audio signal analyzed in step 2 for a second time different from the first display time;
An audio information display method comprising:
音声情報表示装置が備えるコンピュータに、
装置の状況を検出する検出ステップ、
前記検出ステップにおいて検出された装置の状況に基づき、装置が載置された状態で使用されている場合の載置モードおよび装置が載置されていない状態で使用されている把持モードのいずれかであるかを判断するモード判断ステップ、
入力された音声信号を分析する分析ステップ、
前記モード判断ステップにおける判断結果に基づき、前記載置モードである場合は、前記分析ステップにおいて分析された音声信号に基づく表示を第1の時間表示させ、前記把持モードである場合は、前記分析ステップにおいて分析された音声信号に基づく表示を前記第1の表示時間とは異なる第2の時間表示させる表示ステップ、
を実行させることを特徴とするプログラム。
In the computer provided in the voice information display device,
A detection step for detecting the status of the device;
Based on the status of the device detected in the detection step, either the placement mode when the device is used while being placed or the gripping mode that is used when the device is not placed A mode determination step for determining whether there is,
An analysis step for analyzing the input audio signal;
Based on the determination result in the mode determination step, when the display mode is the previous mode, the display based on the audio signal analyzed in the analysis step is displayed for a first time, and when the mode is the grip mode, the analysis step A display step of displaying a display based on the audio signal analyzed in step 2 for a second time different from the first display time;
A program characterized by having executed.
JP2012259495A 2012-11-28 2012-11-28 Voice information display device, voice information display method and program Pending JP2014106394A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012259495A JP2014106394A (en) 2012-11-28 2012-11-28 Voice information display device, voice information display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012259495A JP2014106394A (en) 2012-11-28 2012-11-28 Voice information display device, voice information display method and program

Publications (1)

Publication Number Publication Date
JP2014106394A true JP2014106394A (en) 2014-06-09

Family

ID=51027930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012259495A Pending JP2014106394A (en) 2012-11-28 2012-11-28 Voice information display device, voice information display method and program

Country Status (1)

Country Link
JP (1) JP2014106394A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097076A (en) * 2015-11-19 2017-06-01 オリンパス株式会社 Record reproduction device and record reproduction method
JP7216851B1 (en) 2022-02-21 2023-02-01 真吾 澤田 Hearing assist wearable device and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097076A (en) * 2015-11-19 2017-06-01 オリンパス株式会社 Record reproduction device and record reproduction method
JP7216851B1 (en) 2022-02-21 2023-02-01 真吾 澤田 Hearing assist wearable device and program
WO2023157912A1 (en) * 2022-02-21 2023-08-24 真吾 澤田 Hearing-aid wearable device and program
JP2023121436A (en) * 2022-02-21 2023-08-31 真吾 澤田 Hearing support wearable device and program

Similar Documents

Publication Publication Date Title
US20200249346A1 (en) Electronic device for checking proximity of external object by using signal in specified frequency band, and control method of electronic device
KR102371212B1 (en) Electronic device and method for managing geofence thereof
US9990067B2 (en) Evolutionary touch-based graphical user interface for electronic devices
KR20140112900A (en) Communication connecting method for bluetooth device and apparatus therefor
WO2016121876A1 (en) Electronic device, control method, and control program
KR20070014809A (en) Method and apparatus for providing information during a call, and a mobile device including the same
KR102435697B1 (en) Electronic device having structure with gas sensor
JP6096854B1 (en) Electronic device and method of operating electronic device
JP2016019160A (en) Electronic apparatus, method and program
KR102652553B1 (en) Electronic device and method for detecting block of microphone
JP5983332B2 (en) Audio information notification apparatus, audio information notification method, and program
CN108614263B (en) Mobile terminal, position detection method and related product
KR20190019723A (en) Electronic apparatus and method for controlling touch sensing signals and storage medium
JP2014106394A (en) Voice information display device, voice information display method and program
KR20210091662A (en) Electronic device for controlling external electronic device and method thereof
KR20200017042A (en) Electronic device for displaying information regarding stylus pen and method thereof
CN108680181B (en) Wireless earphone, step counting method based on earphone detection and related product
CN108200290B (en) Electronic device, method for determining drop damage and related product
KR102462204B1 (en) Method and apparatus for providing vibration
CN108491074B (en) Electronic device, exercise assisting method and related product
JP6587927B2 (en) Electronic device, control method of electronic device, control program, and control apparatus
CN108418951B (en) Electronic device, data storage method and related product
CN109040425B (en) Information processing method and related product
KR20220003908A (en) Method and electronic device for detecting surrounding audio signal
CN108337372B (en) Electronic device, physical key detection method, device and computer readable storage medium