JP7405660B2 - 出力装置、出力方法及び出力プログラム - Google Patents

出力装置、出力方法及び出力プログラム Download PDF

Info

Publication number
JP7405660B2
JP7405660B2 JP2020050261A JP2020050261A JP7405660B2 JP 7405660 B2 JP7405660 B2 JP 7405660B2 JP 2020050261 A JP2020050261 A JP 2020050261A JP 2020050261 A JP2020050261 A JP 2020050261A JP 7405660 B2 JP7405660 B2 JP 7405660B2
Authority
JP
Japan
Prior art keywords
predetermined
information
waveform information
context
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020050261A
Other languages
English (en)
Other versions
JP2021149697A (ja
Inventor
孝太 坪内
照彦 寺岡
秀仁 五味
潤一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2020050261A priority Critical patent/JP7405660B2/ja
Priority to US17/198,125 priority patent/US11763831B2/en
Publication of JP2021149697A publication Critical patent/JP2021149697A/ja
Application granted granted Critical
Publication of JP7405660B2 publication Critical patent/JP7405660B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17823Reference signals, e.g. ambient acoustic environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17873General system configurations using a reference signal without an error signal, e.g. pure feedforward
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2111Location-sensitive, e.g. geographical location, GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/105Appliances, e.g. washing machines or dishwashers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3023Estimation of noise, e.g. on error signals
    • G10K2210/30231Sources, e.g. identifying noisy processes or components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3024Expert systems, e.g. artificial intelligence
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3033Information contained in memory, e.g. stored signals or transfer functions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3048Pretraining, e.g. to identify transfer functions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、出力装置、出力方法及び出力プログラムに関する。
従来、音声対話によりインターネット上から所望の情報を検索したり、宅内の家電機器を制御したりする音声対話装置が知られている。例えば、音声対話装置は、対話型の音声操作に対応するAI(Artificial Intelligence)アシスタント機能を利用可能な装置であり、スマートスピーカと呼ばれる。利用者は、スマートスピーカと対話することで様々な情報を取得する。
特開2017-107078号公報
しかしながら、上記の従来技術では、所定の波形情報を適切に除去することができるとは限らない。例えば、上記の従来技術では、スマートスピーカが出力した音声のうち、利用者のプライバシを考慮して除去する必要がある音声を適切に除去することができるとは限らなかった。
本願は、上記に鑑みてなされたものであって、所定の波形情報を適切に除去することができる出力装置、出力方法及び出力プログラムを提供することを目的とする。
本願に係る出力装置は、所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する予測部と、前記所定のコンテキストを有する波形情報が発生すると予測された場合に、当該所定のコンテキストを有する波形情報とは逆位相の波形情報を出力する出力部とを備えることを特徴とする。
実施形態の一態様によれば、所定の波形情報を適切に除去することができるという効果を奏する。
図1は、実施形態に係る出力装置が実行する出力処理の一例を示す図である。 図2は、実施形態に係る出力システムの構成例を示す図である。 図3は、実施形態に係る発言履歴データベースの一例を示す図である。 図4は、実施形態に係る情報処理装置が実行する情報処理の流れの一例を示すフローチャートである。 図5は、実施形態に係る出力装置が実行する出力処理の流れの一例を示すフローチャートである。 図6は、出力装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る出力装置、出力方法及び出力プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る出力装置、出力方法及び出力プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.出力装置が示す出力処理の一例〕
まず、図1を用いて、出力装置200が実行する出力処理の一例について説明する。図1は、実施形態に係る出力装置200が実行する出力処理の一例を示す図である。図1の例では、利用者U1が他の利用者U2及びU3に対して利用者U1を特定されうる個人情報を発話するものとする。この場合、出力装置200が個人情報を除く処理を実行する。また、図1の例では、利用者U1が利用者U2に対して発話した時間から、所定の時間経過した後に、利用者U1が利用者U3に対して発話するものとする。
なお、ここで、出力装置200は、周囲の音を取得するマイクと、任意の音を出力可能なスピーカとを有する入出力装置であり、例えば、スマートスピーカと呼ばれるデバイスであるものとして説明する。
このような出力装置200は、コンテキストにより特定される波形情報として、所定のコンテキストを有する音声が利用者U1によって発話された場合に、所定のコンテキストを有する音声の逆位相の音声を出力することで、利用者U1の発話を遮蔽する。すなわち、出力装置200は、所定のコンテキストを有する波形情報の発生を予測し、所定のコンテキストを有する波形情報が発生すると予測される場合に、かかる波形情報と逆位相の波形情報を出力することで、所定のコンテキストを有する波形情報を遮蔽する。
例えば、出力装置200は、利用者U1が所定のコンテキストを有する対象発言を発話する前に行った事前発言を、対象発言が発生する際のコンテキストとして取得する。そして、出力装置200は、取得したコンテキストと類似するコンテキストが発生した場合(例えば、利用者が対象発言を発話した際の事前発言と類似する発話を行った場合)に、対象発言の発生を予測し、対象発言の逆位相の音声を出力することで、対象発言の遮蔽を行う。
以下、図1を用いて、具体的な例を説明する。図1に示すように、出力装置200は、利用者U1の発言を取得する(ステップS1)。例えば、出力装置200は、利用者U1の発言として、「昨日、友達Aから私の電話番号090-XXXX-XXXXに電話がかかってきたんだよね」といった発言が示す音声を取得する。この場合、出力装置200は、「昨日、友達Aから私の電話番号090-XXXX-XXXXに電話がかかってきたんだよね」を示す音声の波形情報を取得する。
続いて、利用者U1は、利用者U2に対して対象発言を行う(ステップS2)。例えば、利用者U1は、利用者U2に対して、「昨日、友達Aから私の電話番号090-XXXX-XXXXに電話がかかってきたんだよね」といった発言を発話する。ここで、対象発言が「090-XXXX-XXXX」であるものとする。
このような電話番号を示す対象発言は、プライバシを毀損する恐れがある。そこで、情報処理装置100は、このようなプライバシを毀損する恐れのある発言を、所定のコンテキストを有する発言、すなわち、対象発言とする。例えば、情報処理装置100は、所定のコンテキストを有する対象発言に先駆けた事前発言を出力装置200から取得する(ステップS3)。例えば、情報処理装置100は、対象発言「090-XXXX-XXXX」の前に位置する「昨日、友達Aから私の電話番号」を事前発言として、「昨日、友達Aから私の電話番号」が示す音声の波形情報を出力装置200から取得する。なお、ステップ1及びステップ2は、同時に行ってもよいし、順不同で行ってもよい。例えば、ステップ2の方がステップ1よりも早いステップで行われてもよい。
続いて、情報処理装置100は、事前発言から所定のコンテキストを有する波形情報、すなわち対象発言の発生を予測する予測モデルを生成する(ステップS4)。例えば、情報処理装置100は、事前発言が示す音声の波形情報と、所定のコンテキストを有する対象発言が示す音声の波形情報とを学習することで、事前発言が示す音声の波形情報が入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルを生成する。
また、情報処理装置100は、所定のコンテキストを有する波形情報の逆位相の音声を生成する(ステップS5)。具体的には、情報処理装置100は、所定のコンテキストを有する対象発言を除去するために、対象発言が示す音声の波形情報を打ち消す逆位相の波形情報を生成する。
例えば、情報処理装置100は、ノイズキャンセル等で用いられる従来技術によって、対象発言「090-XXXX-XXXX」が示す音声の波形情報から逆位相の波形情報を生成する。
そして、情報処理装置100は、予測モデルと逆位相の音声とを出力装置200に提供する(ステップS4)。例えば、情報処理装置100は、事前発言が示す音声の波形情報が入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルと、対象発言「090-XXXX-XXXX」が示す音声の逆位相の波形情報とを出力装置200に提供する。
また、利用者U1が利用者U2に対して発話を行った時間から、所定の時間が経過した場合について説明する。このとき、出力装置200は、利用者U1の発言を取得する(ステップS7)。例えば、出力装置200は、利用者U1が利用者U3に対する発言として、「昨日、友達Aから私の電話番号090-XXXX-XXXXに電話がかかってきたよ」といった発言が示す音声を取得する。この場合、出力装置200は、「昨日、友達Aから私の電話番号・・・」を示す音声の波形情報を取得する。
続いて、出力装置200は、予測モデルを用いて、所定のコンテキストを有する対象発言の発生を予測する(ステップS8)。例えば、出力装置200は、事前発言として、「昨日、友達Aから私の電話番号」が示す音声を予測モデルに入力することで、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が発話される確率を出力する。そして、出力装置200は、所定のコンテキストを有する対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって所定のコンテキストを有する対象発言が発話されると判定する。
そして、出力装置200は、所定のコンテキストを有する対象発言の発生が予測された場合に、逆位相の音声を出力する(ステップS9)。例えば、情報処理装置100は、利用者U1によって対象発言「090-XXXX-XXXX」が発話されると判定された場合に、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が示す音声の逆位相の波形情報を利用者U1に対して出力する。これにより、出力装置200は、利用者U1によって発話された音声のうち、所定のコンテキストを有する対象発言に相当する音声を選択的に除去することが可能となる。
このように、出力装置200は、各種のセンサが検知した現実世界(リアリティ)の情報を検知情報として取得し、取得した検知情報から検知世界(センスドリアリティ)を構築する。そして、出力装置200は、検知世界に含まれる各種の対象(現実世界における対象と対応)のうち、所定のコンテキストを有する波形情報等、所定の条件を満たす対象を消去、変更、或いは認識の容易性を低下させた減少世界(ディミニッシュドリアリティ)を各種の提供手段により利用者に提供する。この結果、出力装置200は、利用者が認知したくない、或いは、利用者に認知させたくない情報を利用者の認知対象から除外することができる。
従来、スマートスピーカが出力した音声のうち、利用者のプライバシを考慮して除去する必要がある音声を適切に除去することが困難である場合があった。そこで、実施形態に係る出力装置200は、所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測し、所定のコンテキストを有する波形情報が発生すると予測された場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力することで従来の課題を解決する。これにより、出力装置200は、利用者のプライバシを適切に保護することができる。
〔2.コンテキストに基づく予測処理の具体例〕
上記実施形態では、実施形態に係る出力装置200が所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する予測処理について説明したが、出力装置200は、以下に示すような予測処理を行ってもよい。なお、ここでいうコンテキストは、例えば、利用者の属性、利用者の位置、利用者が発話した日時、利用者の感情等を示す状態、利用者がこれから行うであろう行動又は利用者が所定の地域に集まった場合の混雑の具合を示す混雑度等を含む。
具体的には、出力装置200は、所定の検知装置によって検知情報が検知されたときの時間に関する時間情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する。例えば、利用者によって端末装置が利用されている例を挙げて説明する。この場合、出力装置200は、端末装置によって検知された利用者の属性が30代男性である場合に、事前発言として、「昨日、友達Aから私の電話番号」が示す音声を予測モデルに入力することで、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が発話される確率を出力する。そして、出力装置200は、所定のコンテキストを有する対象発言が発話される確率が所定の閾値以上である場合に、利用者によって所定のコンテキストを有する対象発言が発話されると判定する。一方、出力装置200は、検知された利用者の属性が20代女性である場合に、所定のコンテキストを有する対象発言が発話される確率が所定の閾値未満であることから、利用者によって所定のコンテキストを有する対象発言が発話されないと判定する。
また、出力装置200は、所定の検知装置によって検知情報が検知されたときの時間に関する時間情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する。例えば、出力装置200は、時刻を計時するセンサ等によって検知された日時が午前である場合に、事前発言として、「昨日、友達Aから私の電話番号」が示す音声を予測モデルに入力することで、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が発話される確率を出力する。そして、出力装置200は、所定のコンテキストを有する対象発言が発話される確率が所定の閾値以上である場合に、利用者によって所定のコンテキストを有する対象発言が発話されると判定する。一方、出力装置200は、検知された日時が夕方である場合に、所定のコンテキストを有する対象発言が発話される確率が所定の閾値未満であることから、利用者によって所定のコンテキストを有する対象発言が発話されないと判定する。
また、出力装置200は、所定の検知装置によって検知情報が検知されたときの所定の検知装置が示す位置に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測してもよい。例えば、利用者によって端末装置が利用されている例を挙げて説明する。また、過去に利用者U1が利用者U2に対して発話を行った位置と、現在の利用者U1が利用者U3に対して発話を行った位置とが類似するものとする。この場合、出力装置200は、端末装置が有するGPS(Global Positioning System)センサ等によって検知された位置が学校の位置である場合に、利用者U1によって発話された事前発言として、「昨日、友達Aから私の電話番号」が示す音声を予測モデルに入力することで、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が発話される確率を出力する。そして、出力装置200は、所定のコンテキストを有する対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって所定のコンテキストを有する対象発言が発話されると判定する。一方、出力装置200は、検知された位置が公園の位置である場合に、所定のコンテキストを有する対象発言が発話される確率が所定の閾値未満である場合に、利用者U1によって所定のコンテキストを有する対象発言が発話されないと判定する。
また、出力装置200は、所定の検知装置によって過去に検知情報が検知されたときの天候に関する天候情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測してもよい。例えば、過去に利用者U1が利用者U2に対して発話を行ったときの天候情報と、現在の利用者U1が利用者U3に対して発話を行ったときの天候情報とが類似するものとする。この場合、出力装置200は、利用者U1によって発話された事前発言として、「昨日、友達Aから私の電話番号」が示す音声を予測モデルに入力することで、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が発話される確率を出力する。そして、出力装置200は、所定のコンテキストを有する対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって対象発言が発話されると判定する。
また、出力装置200は、所定の検知装置によって検知された過去の検知情報を解析した所定のコンテキストを有する発言内容に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測してもよい。例えば、形態素解析や、構文解析や、意味解析等の従来技術を用いて、事前発言が示す発言内容及び所定のコンテキストを有する対象発言が示す発言内容を解析しているものとする。この場合、出力装置200は、事前発言が示す発言内容として「電話番号」を予測モデルに入力することで、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が発話される確率を出力する。そして、出力装置200は、所定のコンテキストを有する対象発言が発話される確率が所定の閾値以上である場合に、利用者によって対象発言が発話されると判定する。
また、出力装置200は、過去に所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測してもよい。例えば、各利用者から予め取得された事前発言と、所定のコンテキストを有する対象発言とが対応付けて記憶されるデータベースが出力装置200に備えられているものとする。この場合、出力装置200は、利用者によって発話された事前発言を取得し、データベースを参照して、事前発言に対応付けられた所定のコンテキストを有する対象発言を検索する。例えば、出力装置200は、音声解析等の従来技術を用いて、利用者によって発話された事前発言が示す第1の波形情報と、データベースに記憶される事前発言が示す第2の波形情報との類似性に基づいて、利用者によって発話された事前発言を特定する。そして、出力装置200は、特定された事前発言と対応付けられた所定のコンテキストを有する対象発言を、利用者によって発話された事前発言に対応する所定のコンテキストを有する対象発言と予測する。このように、出力装置200は、所定のコンテキストを有する対象発言が発生すると判定することができる。
例えば、電車における車内アナウンスを例に挙げる。この場合、出力装置200は、1両目の車両で聞こえる外の音及び音声(例えば、駅構内の放送、街宣車の音声又は広告に関する放送等)のうち、所定のポリシに合致する音及び音声を検知する。そして、出力装置200は、2両目以降の車両で逆位相の音及び音声を出力することで、搭乗者に聞かせないようにする。また、出力装置200は、電車が走行する線路上、トンネル近くに位置する駅構内で放送が流れる場合に、駅構内の放送を逆位相の音によって打ち消すことで、車両内放送を強調するようにしてもよい。
また、アナウンス等が放送される駅及び駅の位置と、放送される時間とに対応付けられてデータベースに予め記憶されていてもよい。例えば、利用者によって端末装置が利用されているものとする。この場合、出力装置200は、端末装置が有するGPSセンサ等によって検知された利用者の位置が電車の車内であり、位置を取得した時間が「13:45」である場合に、5分後に「A駅」を通過するとき(通過時間が「13:50」)に放送されるアナウンスが記憶されたデータベースを参照する。そして、出力装置200は、利用者の位置と、「A駅」とが所定の距離以内であり、且つ、時間が通過時間「13:50」である場合に、データベースに記憶された「A駅」で放送されるアナウンスに対応する逆位相の音声によって、「A駅」で放送されるアナウンスを打ち消してもよい。
なお、上記例では、電車を対象として例を挙げたが、電車の代わりに如何なる移動体に対して適用されてもよい。例えば、移動体とは、自家用車、タクシー又はバス等を含む自動車や、飛行機等である。
また、出力装置200は、所定のコンテキストを有する波形情報が示す発言の内容そのものではなく、それを発言した際の利用者のコンテキストに基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測してもよい。例えば、出力装置200は、利用者が旅行中である場合に、事前発言として、「昨日、友達Aから私の電話番号」が示す音声を予測モデルに入力することで、対象発言「090-XXXX-XXXX」が発話される確率を出力する。そして、出力装置200は、対象発言が発話される確率が所定の閾値以上である場合に、利用者によって対象発言が発話されると判定する。一方、出力装置200は、利用者が旅行中ではない場合に、対象発言が発話される確率が所定の閾値未満である場合に、利用者によって対象発言が発話されないと判定する。
例えば、出力装置200は、利用者U1と利用者U2とが家族である場合に、利用者U1によって発話された事前発言として、「昨日、友達Aから私の電話番号」が示す音声を予測モデルに入力することで、対象発言「090-XXXX-XXXX」が発話される確率を出力する。そして、出力装置200は、対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって対象発言が発話されると判定する。一方、出力装置200は、利用者U1と利用者U2とが友人である場合に、対象発言が発話される確率が所定の閾値未満である場合に、利用者U1によって対象発言が発話されないと判定する。
また、出力装置200は、検知情報に基づいて推定されるコンテキストとして、過去に所定の検知装置によって利用者が所定の状態で発話された音声が示す所定の波形情報が検知された場合に、所定の波形情報が発生するか否かを予測する。例えば、出力装置200は、検知情報に基づいて推定されるコンテキストとして、音声を発話した利用者の感情に基づいて、所定の波形情報が発生するか否かを予測する。
ここで、出力装置200は、例えば、利用者の感情を、利用者の音声が示す振幅が所定の閾値以上である場合に、利用者が怒っていると推定する。一方、出力装置200は、利用者の感情を、利用者の音声が示す振幅が所定の閾値未満である場合に、利用者が冷静であると推定する。また、出力装置200は、利用者の感情を、利用者によって発話された発言の速度が所定の閾値以上である場合に、利用者が怒っていると推定する。一方、出力装置200は、利用者の感情を、利用者によって発話された発言の速度が所定の閾値未満である場合に、利用者が冷静であると推定する。
例えば、過去に利用者U1の感情と、現在の利用者U1の感情とが類似するものとする。この場合、出力装置200は、事前発言として、「昨日、友達Aから私の電話番号」が示す音声を予測モデル221に入力することで、対象発言「090-XXXX-XXXX」が発話される確率を出力する。そして、出力装置200は、対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって対象発言が発話されると判定する。
このように、出力装置200は、波形情報そのものが有するコンテキストのみならず、波形情報の出力元若しくは出力先に関するコンテキスト、波形情報が発生した際の日時や場所といった発生態様のコンテキストが所定の条件を満たす波形情報の発生を予測し、発生が予測された場合に、逆位相の情報を出力してもよい。
〔2.出力システムの構成〕
図2に示すように、出力システム1は、情報処理装置100と、出力装置200とを含む。情報処理装置100及び出力装置200は、ネットワークNを介して、有線又は無線により通信可能に接続される。なお、図2に示す出力システム1には、複数台の情報処理装置100や、複数台の出力装置200が含まれてもよい。
実施形態に係る情報処理装置100は、インターネット等の所定のネットワークNを介して、各種の装置と通信可能な情報処理装置であり、例えば、サーバ装置又はクラウドシステム等により実現される。例えば、情報処理装置100は、ネットワークNを介して、他の各種装置と通信可能に接続されるである。
実施形態に係る出力装置200は、音声認識機能や、音声再生機能や、音声合成機能や、音声応答機能等を有する情報処理装置であり、例えば、スマートスピーカ等である。また、出力装置200は、ネットワークNを介して、他の各種装置と通信可能に接続される。
また、出力装置200は、音楽の出力や音声による情報提供を実現可能な装置である。また、出力装置200は、音を取得する取得機能を有し、利用者が発した音声を取得すると、取得した音声の内容に応じた音を出力する出力機能を有する。
〔3.情報処理装置の構成〕
以下、上記した情報処理装置100が有する機能構成の一例について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、出力装置200との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部120は、発言履歴データベース121を有する。
(発言履歴データベース121について)
発言履歴データベース121は、利用者によって発話された発言に関する音声情報を記憶する。ここで、図3に、実施形態に係る発言履歴データベース121の一例を示す。図3に示した例では、発言履歴データベース121は、「発言履歴ID(Identifier)」、「対象発言」、「事前発言」といった項目を有する。
「発言履歴ID」は、発言履歴を識別する識別子である。「対象発言」は、「発言履歴ID」に対応付けられた予測対象となる発言に関する情報である。例えば、対象発言は、予測対象となる発言の音声が示す波形情報であって、所定のコンテキストを有する波形情報等である。「事前発言」は、「発言履歴ID」に対応付けられた対象発言の前に発話される発言に関する情報である。例えば、事前発言は、対象発言の前に発話される発言の音声が示す波形情報等である。
例えば、図3では、発言履歴IDによって識別された「RE1」は、対象発言が「対象発言#1」であり、事前発言が「事前発言#1」である。なお、図3に示した例では、対象発言及び事前発言を抽象的な符号で表現したが、対象発言及び事前発言は、具体的な数値や、具体的なファイル形式等であってもよい。また、発言履歴データベース121は、上記項目だけでなく、利用者によって発話された発言の特徴を示す特徴情報等を記憶してもよい。
(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図2に示すように、制御部130は、学習部131と、生成部132と、提供部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
(学習部131について)
学習部131は、各種情報を用いて、学習モデルを生成する。具体的には、学習部131は、発言履歴データベース121を参照して、事前発言から、所定のコンテキストを有する対象発言の発生を予測する予測モデルを生成する。例えば、学習部131は、機械学習等の従来技術を用いて、事前発言が示す音声の波形情報と、所定のコンテキストを有する対象発言が示す音声の波形情報とを学習することで、事前発言が示す音声の波形情報が入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルを生成する。
また、学習部131は、事前発言が示す音声の波形情報と、所定のコンテキストを有する対象発言が示す音声の波形情報と、発話された時間に関する時間情報とを学習することで、事前発言が示す音声の波形情報と、発話された時間に関する時間情報とが入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルを生成してもよい。
また、学習部131は、事前発言が示す音声の波形情報と、所定のコンテキストを有する対象発言が示す音声の波形情報と、発話した利用者の位置とを学習することで、事前発言が示す音声の波形情報と、発話した利用者の位置とが入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルを生成してもよい。
また、学習部131は、事前発言が示す音声の波形情報と、所定のコンテキストを有する対象発言が示す音声の波形情報と、発話したときの天候に関する天候情報とを学習することで、事前発言が示す音声の波形情報と、発話したときの天候情報とが入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルを生成してもよい。
また、学習部131は、各種情報を所定の学習モデルに学習させてもよい。具体的には、学習部131は、発言履歴データベース121を参照して、事前発言が示す音声の波形情報が入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルに対して、新規に取得された事前発言が示す音声の波形情報と、新規に取得された所定のコンテキストを有する対象発言が示す音声の波形情報とを学習させてもよい。
なお、実施形態における予測モデルは、上記例に限定されない。例えば、学習部131は、音声の波形情報の代わりに、音声が示す発言内容を学習することで、予測モデルを生成してもよい。
例えば、学習部131は、形態素解析や、構文解析や、意味解析等の従来技術を用いて、事前発言が示す発言内容を解析することで、事前発言が示す発言内容を推定する。また、学習部131は、形態素解析や、構文解析や、意味解析等の従来技術を用いて、所定のコンテキストを有する対象発言が示す発言内容を解析することで、所定のコンテキストを有する対象発言が示す発言内容を推定する。そして、学習部131は、事前発言が示す発言内容と、所定のコンテキストを有する対象発言が示す発言内容とを学習することで、事前発言が示す発言内容が入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルを生成してもよい。なお、学習部131は、対象発言が発話される確率を出力する予測モデルを生成する処理に限定されなくともよく、例えば、所定のコンテキストを有する対象発言が示す発言内容を出力する予測モデルを生成してもよい。
(生成部132について)
生成部132は、各種情報を生成する。具体的には、生成部132は、所定のコンテキストを有する対象発言を除去するために、所定のコンテキストを有する対象発言が示す音声の波形情報を打ち消す逆位相の波形情報を生成する。例えば、生成部132は、ノイズキャンセル等で用いられる従来技術によって、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が示す音声の波形情報から逆位相の波形情報を生成する。
(提供部133について)
提供部133は、各種情報を提供する。具体的には、提供部133は、予測モデルと逆位相の音声とを出力装置200に提供する。例えば、提供部133は、事前発言が示す音声の波形情報が入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルと、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が示す音声の逆位相の波形情報とを出力装置200に提供する。
〔4.出力装置の構成〕
以下、上記した出力装置200が有する機能構成の一例について説明する。図2は、実施形態に係る出力装置200の構成例を示す図である。図2に示すように、出力装置200は、通信部210と、記憶部220と、マイク230と、スピーカ231と、制御部240とを有する。
(通信部210について)
通信部210は、例えば、NIC等によって実現される。そして、通信部210は、ネットワークNと有線または無線で接続され、情報処理装置100との間で情報の送受信を行う。
(記憶部220について)
記憶部220は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部220は、予測モデル221を有する。例えば、予測モデル221は、事前発言が示す音声の波形情報が入力された場合に、対象発言が発話される確率を出力する予測モデルである。
(マイク230について)
マイク230は、各種音及び音声を取得する。例えば、マイク230は、周囲の音を取得する。また、マイク230は、周囲に位置する利用者によって発話された音声を取得する。
(スピーカ231について)
スピーカ231は、各種音及び音声を出力する。例えば、スピーカ231は、任意の音及び音声を出力する。また、スピーカ231は、逆位相の音声を出力する。
(制御部240について)
制御部240は、コントローラであり、例えば、CPUやMPU等によって、出力装置200内部の記憶装置に記憶されている各種プログラム(出力プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部240は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
図2に示すように、制御部240は、取得部241と、予測部242と、出力部243とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部240の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部240が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
(取得部241について)
取得部241は、各種情報を取得する。具体的には、取得部241は、利用者U1が利用者U2に対して発話を行った場合に、所定のコンテキストを有する対象発言に先駆けた事前発言を利用者U1から取得する。そして、取得部241は、利用者U1が利用者U2に対して発話を行った時間から、所定の時間が経過した場合に、利用者の発言を取得する。
例えば、取得部241は、所定のコンテキストを有する対象発言「090-XXXX-XXXX」の前に位置する「昨日、友達Aから私の電話番号」を事前発言として、「昨日、友達Aから私の電話番号」が示す音声の波形情報を取得する。
例えば、取得部241は、利用者U1が利用者U3に対する発言として、「昨日、友達Aから私の電話番号・・・」といった発言が示す音声を取得する。この場合、出力装置200は、「昨日、友達Aから私の電話番号・・・」を示す音声の波形情報を取得する。
(予測部242について)
予測部242は、各種情報を予測する。具体的には、予測部242は、所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する。
例えば、利用者U1が利用者U2に対して発話を行った時間から、所定の時間が経過した場合に、利用者U1が利用者U3に対して発話を行ったものとする。この場合、予測部242は、時刻を計時するセンサ等によって検知された日時に基づいて、事前発言として、「昨日、友達Aから私の電話番号」が示す音声を予測モデル221に入力することで、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が発話される確率を出力する。そして、予測部242は、所定のコンテキストを有する対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって所定のコンテキストを有する対象発言が発話されると判定する。
(出力部243について)
出力部243は、各種情報を出力する。具体的には、出力部243は、所定のコンテキストを有する波形情報が発生すると予測された場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力する。例えば、出力部243は、利用者U1によって所定のコンテキストを有する対象発言「090-XXXX-XXXX」が発話されると判定された場合に、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が示す音声の逆位相の波形情報を利用者U1に対して出力する。これにより、出力部243は、利用者U1によって発話された音声のうち、所定のコンテキストを有する対象発言に相当する音声を選択的に除去することが可能となる。
例えば、電車における車内アナウンスを例に挙げる。この場合、出力部243は、電車が駅に進入してきた場合に、駅構内で流れる放送を軽減するように、駅構内の放送が示す波形情報とは逆位相の音を電車内に出力する。これにより、出力部243は、駅構内で流れる放送を軽減し、車内放送を強調することができる。
〔5.処理手順(1)〕
次に、図4を用いて、実施形態に係る情報処理装置100が実行する情報処理の手順について説明する。図4は、実施形態に係る情報処理装置100が実行する情報処理の流れの一例を示すフローチャートである。
図4に示すように、学習部131は、対象発言が発話されたか否かを判定する(ステップS101)。具体的には、学習部131は、対象発言が発話されないと判定した場合(ステップS101;No)、ステップS104まで進む。
一方、学習部131は、対象発言が発話されたと判定した場合(ステップS101;Yes)、事前発言が有する特徴を学習した予測モデルを生成する(ステップS102)。そして、生成部132は、所定のコンテキストを有する波形情報の逆位相の音声を生成する(ステップS103)。そして、提供部133は、予測モデルと、逆位相の音声とを出力装置200に提供する(ステップS104)。
〔6.処理手順(2)〕
次に、図5を用いて、実施形態に係る出力装置200が実行する出力処理の手順について説明する。図5は、実施形態に係る出力装置200が実行する出力処理の流れの一例を示すフローチャートである。
図5に示すように、取得部241は、利用者の発言を取得する(ステップS201)。そして、予測部242は、所定のコンテキストを有する波形情報として、対象発言が発話されるか否かを予測する(ステップS202)。具体的には、予測部242は、対象発言が発話されないと予測した場合(ステップS202;No)、ステップS201の前まで戻る。
一方、出力部243は、予測部242によって対象発言が発話されると予測された場合(ステップS202;Yes)、逆位相の音声を出力する(ステップS203)。そして、出力部243は、ステップS201の前まで戻り、上記処理を繰り返す。
〔7.変形例〕
上述した情報処理装置100及び出力装置200は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100及び出力装置200の他の実施形態について説明する。
〔7-1.音声〕
上記実施形態では、利用者によって発話された発言が示す音声を例に挙げて説明してきたが、音声の代わりに、例えば、香り、光、電磁波、地震等の振動に対して上記実施形態で示した出力処理を適用してもよい。このように、上記実施形態は、周期的な変動を示す物理現象であるならば、如何なる物理現象に対しても適用されることが可能である。
〔7-2.対象発言〕
上記実施形態では、利用者が特定されうる個人情報を発話し、個人情報に対応する発言を対象発言として例に挙げて説明してきたが、これに限定されない。例えば、他の利用者の個人情報又は侮辱したり、差別したりする内容に相当する発言に対して上記実施形態で示した出力処理を適用してもよい。また、利用者の口癖に対して上記実施形態で示した出力処理を適用してもよい。
〔7-3.出力方向〕
上記実施形態では、出力装置200が所定のコンテキストを有する波形情報が発生すると予測された場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力する例を挙げて説明してきたが、これに限定されない。例えば、出力装置200は、逆位相の音声を出力する方向を限定してもよい。この場合、出力装置200は、逆位相の音声を、利用者が対象発言を発する方向に限定して出力してもよい。なお、逆位相の音声は、指向性を有していてもよい。
例えば、街宣車が大音量の音を周囲に鳴らして走行しているものとする。この場合、出力装置200は、街宣車から出力される音を、所定の区域に届けないようにするために、逆位相の音を出力させ、街宣車から出力される音を打ち消すようにしてもよい。なお、出力装置200は、所定の区域から街宣車の音を軽減させるための要請又は契約がされている場合に行ってもよい。
〔7-4.出力装置〕
上記実施形態では、出力装置200がスマートスピーカとして例を挙げて説明したが、出力装置200は、音声再生機能を有するならば、如何なる情報処理装置であってもよい。具体的には、出力装置200は、ブラウザに表示されるウェブページやアプリケーション用のコンテンツ等のコンテンツにアクセスする利用者によって利用される端末装置であってもよい。
例えば、出力装置200は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)、スマートウォッチ、ウェアラブルデバイス(Wearable Device)等であってもよい。例えば、出力装置200は、移動可能な滑車等を備え、自走してもよい。
〔7-5.プログラム〕
また、上述した実施形態に係る出力装置200は、例えば、図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が出力装置200として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
〔7-6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、情報処理装置100と、出力装置200を統合して、出力装置としてもよい。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、出力部は、出力手段や出力回路に読み替えることができる。
〔8.効果〕
上述してきたように、実施形態に係る出力装置200は、予測部242と、出力部243とを有する。予測部242は、所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する。出力部243は、所定のコンテキストを有する波形情報が発生すると予測された場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力する。
これにより、実施形態に係る出力装置200は、所定のコンテキストを有する波形情報が発生すると予測された場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力するため、所定の波形情報を適切に除去することができる。
また、実施形態に係る出力装置200において、予測部242は、所定のコンテキストを有する波形情報として、所定の波形を有する波形情報が発生するか否かを予測する。
これにより、実施形態に係る出力装置200は、所定のコンテキストを有する波形情報として、所定の波形を有する波形情報が発生するか否かを予測するため、所定の波形情報を適切に除去することができる。
また、実施形態に係る出力装置200において、予測部242は、所定の検知装置によって検知情報が検知されたときの所定の検知装置が示す位置に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測し、出力部243は、所定の検知装置によって検知情報が検知された位置が過去に所定のコンテキストを有する波形情報が検知された位置と類似する場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を過去に所定のコンテキストを有する波形情報が検知された方向に出力する。
これにより、実施形態に係る出力装置200は、所定の検知装置によって検知情報が検知された位置が過去に所定のコンテキストを有する波形情報が検知された位置と類似する場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を過去に所定のコンテキストを有する波形情報が検知された方向に出力するため、所定の波形情報を適切に除去することができる。
また、実施形態に係る出力装置200において、予測部242は、所定の検知装置によって検知情報が検知されたときの時間に関する時間情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測し、出力部243は、所定の検知装置によって検知情報が検知された時間情報が過去に所定のコンテキストを有する波形情報が検知された時間情報と類似する場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力する。
これにより、実施形態に係る出力装置200は、所定の検知装置によって検知情報が検知された時間情報が過去に所定のコンテキストを有する波形情報が検知された時間情報と類似する場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力するため、所定の波形情報を適切に除去することができる。
また、実施形態に係る出力装置200において、予測部242は、所定の検知装置によって過去に検知情報が検知されたときの天候に関する天候情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測し、出力部243は、所定の検知装置によって検知情報が検知された天候情報が過去に所定のコンテキストを有する波形情報が検知された天候情報と類似する場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力する。
これにより、実施形態に係る出力装置200は、所定の検知装置によって検知情報が検知された天候情報が過去に所定のコンテキストを有する波形情報が検知された天候情報と類似する場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力するため、所定の波形情報を適切に除去することができる。
また、実施形態に係る出力装置200において、予測部242は、検知情報に基づいて推定されるコンテキストに基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する。
これにより、実施形態に係る出力装置200は、検知情報に基づいて推定されるコンテキストに基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測するため、音声を適切なタイミングで除去することができる。
また、実施形態に係る出力装置200において、予測部242は、コンテキストとして、過去に所定の検知装置によって利用者が所定のコンテキストを有する音声を発話した際に検知された利用者の状態と類似する状態が検知された場合に、所定のコンテキストを有する波形情報が発生すると予測する。
これにより、実施形態に係る出力装置200は、コンテキストとして、過去に所定の検知装置によって利用者が所定のコンテキストを有する音声を発話した際に検知された利用者の状態と類似する状態が検知された場合に、所定のコンテキストを有する波形情報が発生すると予測するため、音声を適切なタイミングで除去することができる。
また、実施形態に係る出力装置200において、予測部242は、所定のコンテキストを有する音声を発話した際の利用者の感情に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する。
これにより、実施形態に係る出力装置200は、所定のコンテキストを有する音声を発話した際の利用者の感情に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測するため、音声を適切なタイミングで除去することができる。
また、実施形態に係る出力装置200において、予測部242は、過去に所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する。
これにより、実施形態に係る出力装置200は、過去に所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測するため、音声を適切なタイミングで除去することができる。
また、実施形態に係る出力装置200において、予測部242は、所定の検知装置によって検知された検知情報に基づく第1の波形情報と、過去に所定の検知装置によって検知された検知情報に基づく所定のコンテキストを有する第2の波形情報であって、第1の波形情報とは異なる他の第2の波形情報との類似性に基づいて、所定の波形情報が発生するか否かを予測する。
これにより、実施形態に係る出力装置200は、所定の検知装置によって検知された検知情報に基づく第1の波形情報と、過去に所定の検知装置によって検知された検知情報に基づく所定のコンテキストを有する第2の波形情報であって、第1の波形情報とは異なる他の第2の波形情報との類似性に基づいて、所定の波形情報が発生するか否かを予測するため、音声を適切なタイミングで除去することができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
N ネットワーク
1 出力システム
100 情報処理装置
110 通信部
120 記憶部
121 発言履歴データベース
130 制御部
131 学習部
132 生成部
133 提供部
200 出力装置
210 通信部
220 記憶部
221 予測モデル
230 マイク
231 スピーカ
240 制御部
241 取得部
242 予測部
243 出力部

Claims (12)

  1. 所定のコンテキストを有する対象発言を発話する前に行った事前発言が示す音声の波形情報が入力された場合に、当該対象発言の発生を予測することを学習した予測モデルを用いて、所定の検知装置によって検知された、当該所定の検知装置または検知された利用者に係る状態を含む検知情報に基づいて、所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する予測部と、
    当該所定のコンテキストを有する対象発言に係る音声の波形情報が発生すると予測された場合に、当該波形情報とは逆位相の波形情報を出力する出力部と
    を備えることを特徴とする出力装置。
  2. 前記予測部は、前記所定のコンテキストを有する対象発言に係る音声の波形情報として、所定の波形を有する波形情報が発生するか否かを予測する
    ことを特徴とする請求項1に記載の出力装置。
  3. 前記予測部は、
    前記所定の検知装置によって検知情報が検知されたときの前記所定の検知装置が示す位置に基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測し、
    前記出力部は、
    前記所定の検知装置によって検知情報が検知された位置が過去に前記所定のコンテキストを有する対象発言に係る音声の波形情報が検知された位置と類似する場合に、当該波形情報とは逆位相の波形情報を前記過去に所定のコンテキストを有する対象発言に係る音声の波形情報が検知された方向に出力する
    ことを特徴とする請求項1又は2に記載の出力装置。
  4. 前記予測部は、
    前記所定の検知装置によって検知情報が検知されたときの時間に関する時間情報に基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測し、
    前記出力部は、
    前記所定の検知装置によって検知情報が検知された時間情報が過去に前記所定のコンテキストを有する対象発言に係る音声の波形情報が検知された時間情報と類似する場合に、当該波形情報とは逆位相の波形情報を出力する
    ことを特徴とする請求項1~3のいずれか1つに記載の出力装置。
  5. 前記予測部は、
    前記所定の検知装置によって過去に検知情報が検知されたときの天候に関する天候情報に基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測し、
    前記出力部は、
    前記所定の検知装置によって検知情報が検知された天候情報が過去に前記所定のコンテキストを有する対象発言に係る音声の波形情報が検知された天候情報と類似する場合に、当該波形情報とは逆位相の波形情報を出力する
    ことを特徴とする請求項1~4のいずれか1つに記載の出力装置。
  6. 前記予測部は、
    前記検知情報に基づいて推定されるコンテキストに基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する
    ことを特徴とする請求項1~5のいずれか1つに記載の出力装置。
  7. 前記予測部は、
    前記コンテキストとして、過去に前記所定の検知装置によって利用者が前記所定のコンテキストを有する音声を発話した際に検知された当該利用者の状態と類似する状態が検知された場合に、当該所定のコンテキストを有する音声の波形情報が発生するかと予測する
    ことを特徴とする請求項6に記載の出力装置。
  8. 前記予測部は、
    前記コンテキストを有する音声を発話した際の利用者の感情に基づいて、前記所定のコンテキストを有する音声の波形情報が発生するか否かを予測する
    ことを特徴とする請求項7に記載の出力装置。
  9. 前記予測部は、
    過去に前記所定の検知装置によって検知された検知情報に基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する
    ことを特徴とする請求項1~8のいずれか1つに記載の出力装置。
  10. 前記予測部は、
    前記所定の検知装置によって検知された検知情報に基づく第1の波形情報と、前記過去に前記所定の検知装置によって検知された検知情報に基づく前記所定のコンテキストを有する対象発言に係る音声の第2の波形情報であって、当該第1の波形情報とは異なる他の第2の波形情報との類似性に基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する
    ことを特徴とする請求項9に記載の出力装置。
  11. コンピュータが実行する出力方法であって、
    所定のコンテキストを有する対象発言を発話する前に行った事前発言が示す音声の波形情報が入力された場合に、当該対象発言の発生を予測することを学習した予測モデルを用いて、所定の検知装置によって検知された、当該所定の検知装置または検知された利用者に係る状態を含む検知情報に基づいて、所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する予測工程と、
    当該所定のコンテキストを有する対象発言に係る音声の波形情報が発生すると予測された場合に、当該波形情報とは逆位相の波形情報を出力する出力工程と
    を含むことを特徴とする出力方法。
  12. 所定のコンテキストを有する対象発言を発話する前に行った事前発言が示す音声の波形情報が入力された場合に、当該対象発言の発生を予測することを学習した予測モデルを用いて、所定の検知装置によって検知された、当該所定の検知装置または検知された利用者に係る状態を含む検知情報に基づいて、所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する予測手順と、
    当該所定のコンテキストを有する対象発言に係る音声の波形情報が発生すると予測された場合に、当該波形情報とは逆位相の波形情報を出力する出力手順と
    をコンピュータに実行させるための出力プログラム。
JP2020050261A 2020-03-19 2020-03-19 出力装置、出力方法及び出力プログラム Active JP7405660B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020050261A JP7405660B2 (ja) 2020-03-19 2020-03-19 出力装置、出力方法及び出力プログラム
US17/198,125 US11763831B2 (en) 2020-03-19 2021-03-10 Output apparatus, output method and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020050261A JP7405660B2 (ja) 2020-03-19 2020-03-19 出力装置、出力方法及び出力プログラム

Publications (2)

Publication Number Publication Date
JP2021149697A JP2021149697A (ja) 2021-09-27
JP7405660B2 true JP7405660B2 (ja) 2023-12-26

Family

ID=77849275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020050261A Active JP7405660B2 (ja) 2020-03-19 2020-03-19 出力装置、出力方法及び出力プログラム

Country Status (2)

Country Link
US (1) US11763831B2 (ja)
JP (1) JP7405660B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012119996A (ja) 2010-12-01 2012-06-21 Canon Inc 撮像装置および情報処理システム
JP2014206683A (ja) 2013-04-15 2014-10-30 株式会社ニコン 消音装置および消音方法
WO2016181670A1 (ja) 2015-05-11 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017175584A (ja) 2016-03-25 2017-09-28 キヤノン株式会社 撮像装置及び音声記録装置
JP6392950B1 (ja) 2017-08-03 2018-09-19 ヤフー株式会社 検出装置、検出方法、および検出プログラム
JP2019139089A (ja) 2018-02-13 2019-08-22 株式会社フュートレック 音声秘匿装置および音声秘匿プログラム

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5135079A (en) * 1990-02-28 1992-08-04 Kabushiki Kaisha Toshiba Noise prevention apparatus for a cable winch elevator
US7088828B1 (en) * 2000-04-13 2006-08-08 Cisco Technology, Inc. Methods and apparatus for providing privacy for a user of an audio electronic device
WO2001095314A1 (fr) * 2000-06-09 2001-12-13 Japan Science And Technology Corporation Dispositif et systeme acoustiques robotises
JP4145302B2 (ja) * 2003-04-14 2008-09-03 富士通株式会社 対話装置、対話方法及び対話プログラム
EP1630713B1 (en) * 2004-08-24 2020-05-20 Sony Deutschland GmbH Backscatter interrogator reception method and interrogator for a modulated backscatter system
WO2006077745A1 (ja) * 2005-01-20 2006-07-27 Nec Corporation 信号除去方法、信号除去システムおよび信号除去プログラム
US7647077B2 (en) * 2005-05-31 2010-01-12 Bitwave Pte Ltd Method for echo control of a wireless headset
JP4511436B2 (ja) * 2005-08-15 2010-07-28 ビーバ株式会社 反射板式消音管
FI20055590L (fi) * 2005-11-03 2007-05-04 Wearfone Oy Menetelmä ja laite äänen muodostamiseksi langattomasti käyttäjän korvaan
US20070223714A1 (en) * 2006-01-18 2007-09-27 Masao Nishikawa Open-air noise cancellation system for large open area coverage applications
US20120204887A1 (en) * 2011-02-11 2012-08-16 Connor Robert A Adjustable Snore-Attenuating Pressure (ASAP)
US20120226981A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
US9928824B2 (en) * 2011-05-11 2018-03-27 Silentium Ltd. Apparatus, system and method of controlling noise within a noise-controlled volume
GB2497343B (en) * 2011-12-08 2014-11-26 Skype Processing audio signals
JP5928048B2 (ja) * 2012-03-22 2016-06-01 ソニー株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび端末装置
US9190057B2 (en) * 2012-12-12 2015-11-17 Amazon Technologies, Inc. Speech model retrieval in distributed speech recognition systems
JP6316208B2 (ja) * 2012-12-18 2018-04-25 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 特定の話者の音声を加工するための方法、並びに、その電子装置システム及び電子装置用プログラム
CN103020047A (zh) * 2012-12-31 2013-04-03 威盛电子股份有限公司 修正语音应答的方法及自然语言对话***
KR20140089871A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 대화형 서버, 그 제어 방법 및 대화형 시스템
JP6289121B2 (ja) * 2014-01-23 2018-03-07 キヤノン株式会社 音響信号処理装置、動画撮影装置およびそれらの制御方法
US20160118036A1 (en) * 2014-10-23 2016-04-28 Elwha Llc Systems and methods for positioning a user of a hands-free intercommunication system
JP6122816B2 (ja) * 2014-08-07 2017-04-26 シャープ株式会社 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム
US9940929B2 (en) * 2015-12-09 2018-04-10 Lenovo (Singapore) Pte. Ltd. Extending the period of voice recognition
JP2017107078A (ja) 2015-12-10 2017-06-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声対話方法、音声対話装置及び音声対話プログラム
US10370098B1 (en) * 2015-12-18 2019-08-06 Amazon Technologies, Inc. Adjustable propeller blade with sound flaps
WO2017115545A1 (ja) * 2015-12-28 2017-07-06 ソニー株式会社 コントローラ、入出力装置、及び通信システム
US11462213B2 (en) * 2016-03-31 2022-10-04 Sony Corporation Information processing apparatus, information processing method, and program
JP6219448B1 (ja) * 2016-05-16 2017-10-25 Cocoro Sb株式会社 顧客応対制御システム、顧客応対システム及びプログラム
JP7098535B2 (ja) * 2016-05-23 2022-07-11 インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ 無線カバレッジを提供する方法及び装置
US10118692B1 (en) * 2016-06-27 2018-11-06 Amazon Technologies, Inc. Drone noise reduction via simultaneous propeller modulation
KR102502220B1 (ko) * 2016-12-20 2023-02-22 삼성전자주식회사 전자 장치, 그의 사용자 발화 의도 판단 방법 및 비일시적 컴퓨터 판독가능 기록매체
EP3598434A4 (en) * 2017-03-13 2020-04-22 Sony Corporation LEARNING DEVICE, LEARNING METHOD, LANGUAGE SYNTHETIZER AND LANGUAGE SYNTHESIS METHOD
US10878819B1 (en) * 2017-04-25 2020-12-29 United Services Automobile Association (Usaa) System and method for enabling real-time captioning for the hearing impaired via augmented reality
US10258295B2 (en) * 2017-05-09 2019-04-16 LifePod Solutions, Inc. Voice controlled assistance for monitoring adverse events of a user and/or coordinating emergency actions such as caregiver communication
US11315560B2 (en) * 2017-07-14 2022-04-26 Cognigy Gmbh Method for conducting dialog between human and computer
US10083006B1 (en) * 2017-09-12 2018-09-25 Google Llc Intercom-style communication using multiple computing devices
US11200027B2 (en) * 2017-09-19 2021-12-14 Google Llc Virtual assistant configured to automatically customize groups of actions
CN109637517B (zh) * 2017-10-06 2023-05-26 松下电器(美国)知识产权公司 控制装置、控制***以及控制方法
CN109625261B (zh) * 2017-10-06 2023-09-22 松下电器(美国)知识产权公司 无人飞行器
KR101972545B1 (ko) * 2018-02-12 2019-04-26 주식회사 럭스로보 음성 명령을 통한 위치 기반 음성 인식 시스템
US10755706B2 (en) * 2018-03-26 2020-08-25 Midea Group Co., Ltd. Voice-based user interface with dynamically switchable endpoints
JP7152906B2 (ja) * 2018-09-03 2022-10-13 日立Astemo株式会社 操舵制御装置、操舵制御方法、及び操舵制御システム
US20200092339A1 (en) * 2018-09-17 2020-03-19 International Business Machines Corporation Providing device control instructions for increasing conference participant interest based on contextual data analysis
CN111192568B (zh) * 2018-11-15 2022-12-13 华为技术有限公司 一种语音合成方法及语音合成装置
EP3886457A4 (en) * 2018-11-21 2022-01-26 Sony Group Corporation INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
US11875776B2 (en) * 2018-11-22 2024-01-16 Sony Group Corporation Response generating apparatus, response generating method, and response generating program
EP3681175B1 (en) * 2019-01-09 2022-06-01 Oticon A/s A hearing device comprising direct sound compensation
KR102651750B1 (ko) * 2019-02-05 2024-03-28 소니그룹주식회사 음향 장치
US20220157303A1 (en) * 2019-03-26 2022-05-19 Sony Group Corporation Information processing device and information processing method
JP6822693B2 (ja) * 2019-03-27 2021-01-27 日本電気株式会社 音声出力装置、音声出力方法および音声出力プログラム
US11026035B1 (en) * 2019-04-19 2021-06-01 Cirrus Logic, Inc. Transducer electrical characteristic and state sensing using multiple voice coils
JP7279494B2 (ja) * 2019-04-23 2023-05-23 コニカミノルタ株式会社 会議支援装置、および会議支援システム
CN110301890B (zh) * 2019-05-31 2021-09-07 华为技术有限公司 呼吸暂停监测的方法及装置
KR20190099380A (ko) * 2019-08-07 2019-08-27 엘지전자 주식회사 사용자의 행동 패턴에 기반한 AI(Artificial Intelligence) 장치와 디바이스를 연계하는 방법 및 이를 위한 장치
US11942108B2 (en) * 2019-10-04 2024-03-26 Sony Group Corporation Information processing apparatus and information processing method
JP7268582B2 (ja) * 2019-11-12 2023-05-08 トヨタ自動車株式会社 乗物用消音装置及び乗物用消音方法
US10791219B1 (en) * 2019-11-25 2020-09-29 International Business Machines Corporation Audio content control of idle call condition
US11386890B1 (en) * 2020-02-11 2022-07-12 Amazon Technologies, Inc. Natural language understanding
US11335342B2 (en) * 2020-02-21 2022-05-17 International Business Machines Corporation Voice assistance system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012119996A (ja) 2010-12-01 2012-06-21 Canon Inc 撮像装置および情報処理システム
JP2014206683A (ja) 2013-04-15 2014-10-30 株式会社ニコン 消音装置および消音方法
WO2016181670A1 (ja) 2015-05-11 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017175584A (ja) 2016-03-25 2017-09-28 キヤノン株式会社 撮像装置及び音声記録装置
JP6392950B1 (ja) 2017-08-03 2018-09-19 ヤフー株式会社 検出装置、検出方法、および検出プログラム
JP2019139089A (ja) 2018-02-13 2019-08-22 株式会社フュートレック 音声秘匿装置および音声秘匿プログラム

Also Published As

Publication number Publication date
JP2021149697A (ja) 2021-09-27
US20210358511A1 (en) 2021-11-18
US11763831B2 (en) 2023-09-19

Similar Documents

Publication Publication Date Title
US11282522B2 (en) Artificial intelligence apparatus and method for recognizing speech of user
WO2022105861A1 (zh) 用于识别语音的方法、装置、电子设备和介质
US11211047B2 (en) Artificial intelligence device for learning deidentified speech signal and method therefor
US11574637B1 (en) Spoken language understanding models
EP3701521B1 (en) Voice recognition apparatus and operation method thereof cross-reference to related application
US10838954B1 (en) Identifying user content
JP7230806B2 (ja) 情報処理装置、及び情報処理方法
JP6597527B2 (ja) 音声認識装置および音声認識方法
JP7171911B2 (ja) ビジュアルコンテンツからのインタラクティブなオーディオトラックの生成
JP6846617B2 (ja) 情報提供方法、サーバ、情報端末装置、システム及び音声対話システム
CN110413834B (zh) 语音评论修饰方法、***、介质和电子设备
CN117529773A (zh) 用户自主个性化文本转语音的声音生成
US20200402498A1 (en) Information processing apparatus, information processing method, and program
JP7405660B2 (ja) 出力装置、出力方法及び出力プログラム
US11922538B2 (en) Apparatus for generating emojis, vehicle, and method for generating emojis
JP7248615B2 (ja) 出力装置、出力方法及び出力プログラム
WO2021166504A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US11946762B2 (en) Interactive voice navigation
JP2022021349A (ja) 情報処理装置、情報処理方法、およびプログラム
KR102443914B1 (ko) 사용자의 행동 추천 방법 및 장치
US11227591B1 (en) Controlled access to data
US20240029730A1 (en) Predictive deletion of user input
WO2020166183A1 (ja) 情報処理装置及び情報処理方法
CN116013300A (zh) 用于车载环境下的数据处理方法、装置及介质
KR20230146898A (ko) 대화 처리 방법 및 대화 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230118

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230125

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230131

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230310

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230314

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231214

R150 Certificate of patent or registration of utility model

Ref document number: 7405660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150