JP6535706B2 - データセットの3値ビットマップを作成するための方法 - Google Patents

データセットの3値ビットマップを作成するための方法 Download PDF

Info

Publication number
JP6535706B2
JP6535706B2 JP2017138010A JP2017138010A JP6535706B2 JP 6535706 B2 JP6535706 B2 JP 6535706B2 JP 2017138010 A JP2017138010 A JP 2017138010A JP 2017138010 A JP2017138010 A JP 2017138010A JP 6535706 B2 JP6535706 B2 JP 6535706B2
Authority
JP
Japan
Prior art keywords
bitmap
binary
bit
bitmaps
ternary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017138010A
Other languages
English (en)
Other versions
JP2017207770A (ja
Inventor
ブラック,ケビン
ワイス,フェリックス,イマニュエル
Original Assignee
インタラクティブ・インテリジェンス・インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インタラクティブ・インテリジェンス・インコーポレイテッド filed Critical インタラクティブ・インテリジェンス・インコーポレイテッド
Publication of JP2017207770A publication Critical patent/JP2017207770A/ja
Application granted granted Critical
Publication of JP6535706B2 publication Critical patent/JP6535706B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3059Digital compression and data reduction techniques where the original information is represented by a subset or similar information, e.g. lossy compression
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3066Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction by means of a mask or a bit-map
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3082Vector coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2027Live party detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5158Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with automated outdialling systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、概して、オーディオ信号のような既知のデータセットを識別することに関し
、より詳細には、データセットをフィンガープリントするためのシステムおよび方法に関
する。
本開示および本明細書に開示されている例示的な実施形態の背景を、発信電話呼の間に
、たとえば、コンタクトセンターから行われる通話呼の間に受ける既知の録音を識別する
コンテキストにおいて説明する。しかしながら、本発明は、オーディオまたは画像(本明
細書において使用される場合、「画像」という用語は、静止画像および動画の両方を包含
するように意図されている)のタイプまたはソースにかかわらず、また、オーディオまた
は画像を受ける状況にかかわらず、オーディオまたは画像の任意のセグメントの識別に対
する適用可能性を有する。さらに、本発明は、たとえば、任意のタイプのセンサから取得
されるデータのような、データの任意の断片の識別に対する適用可能性も有する。それゆ
え、本明細書において使用される場合、「データセット」という用語は、オーディオ、画
像、または他のタイプのデータを含むか否かにかかわらず、任意のタイプのデータの集合
を包含するものとする。
従来のコンタクトセンターのシナリオにおいて、発信呼は、自動的に(「自動ダイヤル
装置」または「オートダイヤラ」として既知のクラスのデバイスによって)または手動で
のいずれかで行われる。着呼側の生身の人間に届くことが決定された通話呼につながるた
めに、数人の人間の「代理人」が控えている。このように、着呼側に代理人が話すことが
できる生身の人間がいると判定されるまで、代理人に通話呼に関与させないことによって
、効率が得られる。発信呼の間に電話回線をモニタリングするために自動機器を使用する
ことは、コールプログレス分析(CPA)と称される。CPAは、呼設定の間のオーディ
オおよびネットワークシグナリングに対して動作する一クラスのアルゴリズムである。C
PAの目的は、発呼者の性質、または外部ネットワーク(従来の公衆交換電話網またはボ
イスオーバーインターネットプロトコル(VIP))に対する呼設定の結果を判定するこ
とである。具体的には、通話呼またはセッションが確立されようとしているとき、発呼者
または開始者は、生身の発話者が応答したか否か、話し中かなどを判定しなければならな
い。自動ダイヤル装置またはメッセージブロードキャスティングシステムのような発呼者
が自動アプリケーションであるとき、CPAアルゴリズムは、自動的に分類を実行するの
に使用される。CPAは、電話網によって発呼側エンティティに送達される、折り返しお
よび話し中のような、いわゆるコールプログレストーンを解釈するのに使用される。従来
のCPAは、帯域内信号音を定量化するために、経時的なエネルギー測定とともに、ロー
およびハイパス周波数弁別器を使用して実行される。
発信呼におけるオーディオを分類するための別の方法は、音声区間検出(VAD)とし
て既知であり、これは、オーディオストリームの中でどこに発話が存在するかを識別する
一クラスのオーディオ処理アルゴリズムである。検出される発話は、生身の発話者または
録音されたメッセージを含む、任意のソースに由来し得る。現行のVADアルゴリズムは
、主な発話者の発生を背景雑音から区別するために、スペクトル分析を使用する。
VADを使用して発話パターンを抽出し、パターンが生身の発話者または録音メッセー
ジに由来するかを判定する一サブクラスのCPAアルゴリズムは、留守番電話検出(AM
D)として既知である。生身の発話者につながっていない通話呼を識別することによって
、正確なAMDアルゴリズムは自動ダイヤル装置のスループットを大幅に増大させること
ができる。しかしながら、AMDからの誤検出は、無言電話または放棄呼につながり、コ
ンタクトセンターにとっての収益の損失、および公衆の間での悪印象を引き起こす。AM
Dアルゴリズムの品質は、正確度および応答時間の関数である、世界の一部地域(特に米
国および英国)は、その両方に厳密な法的要求事項を課している。
AMDは正確な科学技術ではなく、最適な手法は未解決の問題である。許容可能な正確
度、速度、および柔軟性を達成するために、AMDアルゴリズムは、発話を生または録音
として分類するためのニューラルネットワークのような発見的教授法および統計モデルの
組合せを使用する。市販されている多くの商用AMDシステムがマーケティング文献にお
いて高い正解率(たとえば、95%以上)を報告しているが、これらの数字に対する独立
監査人はなく、継続的な広まっている不満を反映すると、実地での実際の正解率は一般的
にはるかに低い(たとえば、80%以下)。一部の消費者擁護団体によって全面禁止が提
案されており、一部のコンタクトセンターはその制約のために単純にAMDを使用するこ
とができない。
オーディオ識別の相対的に新規の科学技術が、音響指紋法として既知であり、システム
が、候補オーディオストリームの「指紋」を生成し、それを、科学捜査において使用され
る人間の指紋法と同様に、既知の指紋のデータベースと比較する。このコンテキストにお
いて、「指紋」とは、他のオーディオストリームとの知覚的同等性を迅速に確立すること
ができる、オーディオストリームの凝縮された要約である。既知の指紋のデータベースは
、既知の指紋を「タイトル」、「アーティスト」などのようなメタデータを関連付けるこ
とができる。過去十年間において、オーディオおよび画像に関するフィンガープリンティ
ング技術における科学的および産業的関心は急速に高まった。用途は、歌曲および広告の
識別、メディアライブラリの管理、および著作権順守を含む。
様々な音響フィンガープリンティングアルゴリズムクラスが提案されており、今日最も
普及しているものが、「ランドマーク」または「ビットマップ」に基づくものである。ラ
ンドマークベースのアルゴリズムは、オーディオストリームから、スペクトルピーク、ト
ーン、音高、音量の突然の変化などのような、「ランドマーク」と呼ばれる明確な特徴を
抽出する。ランドマークの最適な選択は、ほとんど発見的教授法によって誘導される未解
決の問題である。音響指紋は、各ランドマークを記述する一連のデータ構造体として記憶
される。実行時、候補オーディオストリームから抽出されたランドマークは、距離メトリ
ックに基づいて指紋のデータベースと比較される。
ビットマップベースのアルゴリズムは、オーディオストリームを一連のフレームとして
分析し、フィルタバンクを使用して各フレームをサイズNのビットベクトルに量子化し、
ここで、Nは一般的に、簡便にするために、C型整数におけるビット数N∈{8,16,
32,または64}として選択される。有名でよく研究された例が、「Haitsma−
Kalkerアルゴリズム」として既知であり、これは、時間および周波数の両方におい
て短期間の差を比較するフィルタを使用して2値ビットマップを計算する。Haitsm
a−Kalkerアルゴリズムは文献においてよく研究されている。その発明者であるJ
aap HaitsmaおよびTon Kalkerは、Haitsma−Kalker
アルゴリズムの使用、および、数百万の歌曲のデータベースからの歌曲の3秒録音を識別
するための2値音響指紋ビットマップの比較のレポートを刊行した(Haitsma a
nd Kalker著「A Highly Robust Audio Fingerp
rinting System」(Journal of New Music Res
earch,Vol.32,No.2(2003),pp.211−221))。完全な
音響指紋は、一連のビットベクトル、またはビットマップとして記憶される。図1A〜図
1Cに示されているように、「この番号は回線から切断されています(This num
ber has been disconnected)」と言っている電話網からのメ
ッセージを含む、オーディオストリームの3つの画像が図示されている。図1Aは、元の
オーディオ波信号を示し、8000KHzにおいて1.5秒間のオーディオがサンプリン
グされている。図1Bは、元のオーディオ入力信号のスペクトログラムを示し、暗領域は
特定の周波数においてエネルギーが高いことを示している。図1CはHaitsma−K
alkerアルゴリズムを使用して作成される2値音響指紋ビットマップを示し、高さは
N=16である。この高さは、各フレームにおいて計算されるビット数によって決定され
、幅は、オーディオストリーム内のフレーム数によって決定される。実行時、候補オーデ
ィオストリームから計算されたビットマップが、ハミング距離としても既知である、一致
しないビットの数に基づいてビットマップのデータベースと比較される。
ビットマップマッチングおよび音響指紋の使用は、オーディオ認識の科学技術において
強力な新しいツールであるが、これは計算集約的であり、多くの場合において一致を作る
ために数秒間のオーディオをサンプリングする必要がある。この遅延によって、これはコ
ールプログレス分析に使用するにはよく適しているとは言えないものになる。したがって
、一般的な場合および発信呼試行中の両方において、オーディオを識別するためのより速
くより正確なシステムおよび方法が依然として必要とされている。
Haitsma and Kalker著「A Highly Robust Audio Fingerprinting System」(Journal of New Music Research,Vol.32,No.2(2003),pp.211−221)
入力オーディオセグメントのようなデータセットをデータベース内の既知のデータセッ
トとマッチングするためのシステムおよび方法が開示される。例示的な実施形態において
、発信電話呼の間に受ける既知のネットワークメッセージ記録の認識とともに、本明細書
において開示されるシステムおよび方法を使用することが説明される。本方法は、比較プ
ロセスをより効率的にするために、3値指紋ビットマップを作成することを含む。より大
きなデータセット集合から既知のデータセットのデータベースを作成する自動化された方
法も開示される。
一実施形態において、発信電話呼から候補オーディオセグメントを識別するための方法
が開示され、方法は、a)候補オーディオセグメントのスペクトログラムを作成するステ
ップと、b)スペクトログラムの候補2値音響指紋ビットマップを作成するステップと、
c)候補2値音響指紋ビットマップを、既知のネットワークメッセージの少なくとも1つ
の既知の2値音響指紋ビットマップと比較するステップと、d)候補2値音響指紋ビット
マップが所定閾値内で上記少なくとも1つの既知の2値音響指紋ビットマップのうちの1
つに一致する場合、一致を宣言するステップと、e)候補2値音響指紋ビットマップが所
定閾値内で上記少なくとも1つの既知の2値音響指紋ビットマップのうちの1つに一致し
ない場合、候補オーディオセグメントを分析するために留守番電話検出アルゴリズムを使
用するステップとを含む。
別の実施形態において、発信電話呼から候補オーディオセグメントを識別するための方
法が開示され、方法は、a)候補オーディオセグメントのスペクトログラムを作成するス
テップと、b)スペクトログラムの候補2値指紋ビットマップを作成するステップと、c
)候補2値指紋ビットマップを、既知の記録の少なくとも1つの既知の2値指紋ビットマ
ップと比較するステップと、d)候補2値指紋ビットマップが所定閾値内で上記少なくと
も1つの既知の2値指紋ビットマップのうちの1つに一致する場合、一致を宣言するステ
ップと、e)候補2値指紋ビットマップが所定閾値内で上記少なくとも1つの既知の2値
指紋ビットマップのうちの1つに一致しない場合、候補オーディオセグメントを分析する
ために代替のプロセスを使用するステップとを含む。
さらなる実施形態において、データセットの3値ビットマップを作成するための方法が
開示され、方法は、a)データセットの2値指紋ビットマップを計算するステップと、b
)データセットから第1の数のサンプルを消去するステップと、c)ステップ(b)の後
、データセットの別の2値指紋ビットマップを計算するステップと、d)複数の2値指紋
ビットマップを作成するために、ステップ(b)および(c)を複数回繰り返すステップ
と、e)複数の2値指紋ビットマップを組み合わせて3値ビットマップにするステップで
あって、3値ビットマップ内の各ビットは、e.1)複数の2値ビットマップのうちの第
1の所定数においてビットが0である場合、3値ビットマップ内のそのビットを0に設定
し、e.2)複数の2値ビットマップのうちの第2の所定数においてビットが1である場
合、3値ビットマップ内のそのビットを1に設定し、e.3)それ以外の場合、3値ビッ
トマップ内のそのビットを*(「Don’t Care(適用除外)」)に設定するよう
に決定される、組み合わせるステップとを含む。
また別の実施形態において、候補データセットを識別するための方法が開示され、方法
は、a)既知のデータセットデータベース内の既知のデータセットの2値指紋ビットマッ
プを計算するステップと、b)既知のデータセットから第1の数のサンプルを消去するス
テップと、c)ステップ(b)の後、既知のデータセットの別の2値指紋ビットマップを
計算するステップと、d)複数の2値指紋ビットマップを作成するために、ステップ(b
)および(c)を複数回繰り返すステップと、e)複数の2値指紋ビットマップを組み合
わせて3値ビットマップにするステップであって、3値ビットマップ内の各ビットは、e
.1)複数の2値ビットマップのうちの第1の所定数においてビットが0である場合、3
値ビットマップ内のそのビットを0に設定し、e.2)複数の2値ビットマップのうちの
第2の所定数においてビットが1である場合、3値ビットマップ内のそのビットを1に設
定し、e.3)それ以外の場合、3値ビットマップ内のそのビットを*(「Don’t
Care」)に設定するように決定される、組み合わせるステップと、f)3値ビットマ
ップを3値ビットマップデータベース内に保存するステップと、g)既知のデータセット
データベース内のすべての既知のデータセットについてステップ(a)〜(f)を繰り返
すステップと、h)候補データセットから候補データセット2値指紋ビットマップを作成
するステップと、i)候補データセット2値指紋ビットマップを3値ビットマップデータ
ベース内の各3値ビットマップと比較するステップであって、上記比較はDon’t C
areビットを無視する、比較するステップとを含む。
さらなる実施形態において、オーディオセグメントの3値ビットマップを作成するため
の方法が開示され、方法は、a)オーディオセグメントの2値音響指紋ビットマップを計
算するステップと、b)オーディオセグメントから第1の数のサンプルを消去するステッ
プと、c)ステップ(b)の後、オーディオセグメントの別の2値音響指紋ビットマップ
を計算するステップと、d)複数の2値音響指紋ビットマップを作成するために、ステッ
プ(b)および(c)を複数回繰り返すステップと、e)複数の2値音響指紋ビットマッ
プを組み合わせて3値ビットマップにするステップであって、3値ビットマップ内の各ビ
ットは、e.1)複数の2値ビットマップのうちの第1の所定数においてビットが0であ
る場合、3値ビットマップ内のそのビットを0に設定し、e.2)複数の2値ビットマッ
プのうちの第2の所定数においてビットが1である場合、3値ビットマップ内のそのビッ
トを1に設定し、e.3)それ以外の場合、3値ビットマップ内のそのビットを*(「D
on’t Care」)に設定するように決定される、組み合わせるステップとを含む。
また別の実施形態において、候補オーディオセグメントを識別するための方法が開示さ
れ、方法は、a)既知のオーディオセグメントデータベース内の既知のオーディオセグメ
ントの2値音響指紋ビットマップを計算するステップと、b)既知のオーディオセグメン
トから第1の数のサンプルを消去するステップと、c)ステップ(b)の後、既知のオー
ディオセグメントの別の2値音響指紋ビットマップを計算するステップと、d)複数の2
値音響指紋ビットマップを作成するために、ステップ(b)および(c)を複数回繰り返
すステップと、e)複数の2値音響指紋ビットマップを組み合わせて3値ビットマップに
するステップであって、3値ビットマップ内の各ビットは、e.1)複数の2値ビットマ
ップのうちの第1の所定数においてビットが0である場合、3値ビットマップ内のそのビ
ットを0に設定し、e.2)複数の2値ビットマップのうちの第2の所定数においてビッ
トが1である場合、3値ビットマップ内のそのビットを1に設定し、e.3)それ以外の
場合、3値ビットマップ内のそのビットを*(「Don’t Care」)に設定するよ
うに決定される、組み合わせるステップと、f)3値ビットマップを3値ビットマップデ
ータベース内に保存するステップと、g)既知のオーディオセグメントデータベース内の
すべての既知のオーディオセグメントについてステップ(a)〜(f)を繰り返すステッ
プと、h)候補オーディオセグメントから候補オーディオセグメント2値音響指紋ビット
マップを作成するステップと、i)候補オーディオセグメント2値音響指紋ビットマップ
を3値ビットマップデータベース内の各3値ビットマップと比較するステップであって、
上記比較はDon’t Careビットを無視する、比較するステップとを含む。
また別の実施形態において、データセットの加重圧縮表現を作成するための方法が開示
され、方法は、a)データセットの圧縮表現を計算するステップと、b)データセットに
変換を適用するステップと、c)ステップ(b)の後、データセットの別の圧縮表現を計
算するステップと、d)複数の圧縮表現を作成するために、ステップ(b)および(c)
を複数回繰り返すステップと、e)複数の圧縮表現を組み合わせて加重圧縮表現にするス
テップであって、加重圧縮表現における各重みは、複数の圧縮表現内の要素の関数として
計算される、組み合わせるステップとを含む。
他の実施形態も開示される。
オーディオ波の図である。 スペクトログラムの図である。 2値音響指紋ビットマップの図である。 音響指紋を構築するための方法の一実施形態の概略流れ図である。 一実施形態による変換に使用される例示的なスライディングウィンドウのセットについての振幅対時間のグラフである。 オーディオサンプルのスペクトログラムの図である。 メル尺度の概略表現の図である。 Haitsma−Kalkerアルゴリズムのグラフィック表現の図である。 一実施形態による3値ビットマップを作成するための方法を示す概略流れ図である。 一実施形態による2値ビットマップからの3値ビットマップの作成の概略グラフィック表現の図である。 一実施形態による3値ビットマップからのハッシュキーの作成の概略流れ図である。 図7のプロセスのグラフィック表現の図である。 一実施形態によるハッシュキーを使用したマッチング手順の概略流れ図である。 一実施形態による大きいオーディオデータセットから共通の録音に対する諮問を抽出するための方法の概略流れ図である。
本発明の原理の理解を促進する目的で、ここで、図面に示されている実施形態を参照し
、特定の文言がこれを説明するために使用される。それにもかかわらず、本発明の範囲の
限定は意図されていないことが理解されよう。示されているシステムおよび方法における
変更および修正、ならびにそこに示されている本発明の原理のさらなる応用は、本発明が
関連する技術分野における当業者に一般的に想起されるように、企図され、保護されるこ
とが所望される。そのような代替的な実施形態は、当業者には明らかであるように、本明
細書において説明される実施形態に対する一定の適合を必要とする。
本明細書に開示されている様々な実施形態は、発信電話呼の間に、たとえば、コンタク
トセンターから行われている通話呼の間に受ける既知の録音を識別するコンテキストにお
いて説明されることになるが、本発明は、オーディオ、画像、または他のタイプのデータ
のタイプまたはソースにかかわらず、また、どのような状況でオーディオ、画像、または
他のタイプのデータを受けるかにかかわらず、オーディオ、画像、または他のタイプのデ
ータの任意のセグメントの識別に適用可能性を有する。加えて、本発明は、2つ以上の次
元を有する任意のタイプのデータセットの認識に適用可能性を有する。本明細書において
主に録音の認識に依拠しているのは、単純に説明を簡便にするためである。
コールプログレス分析システムにおける音響指紋の使用
コールプログレス分析は、限定ではないが以下を含む対象の特定のコールプログレス事
象を識別するために、音響指紋システムによって、従来のAMDを強化するシステムを使
用することによって改善され得る。
a.電話網メッセージ(たとえば、「申し訳ございません(We’re sorry)」
、「あなたがおかけになった番号またはコードには誤りがあります(The numbe
r or code you have dialed is incorrect)」
b.複数の加入者によって共有されるボイスメールグリーティング(たとえば、「ハロー
、あなたのお友達から着信です(Hello,the party you have
dialed)」)
c.メロディ音、ジングル音、チャイム
d.音楽または発話を含む呼び出し音(たとえば、「電話がつながるまでそのままお待ち
ください(Please hold while your call is comp
leted)」)
e.コールスクリーナ
f.プライバシーマネージャ(「あなたがおかけになった番号には、勧誘は認められてお
りません(You have reached a number that does
not accept solicitations)」)
g.双方向音声応答(IVR)プロンプト
これらは、本明細書においてまとめて「ネットワークメッセージ」と称される。すべて
のそのようなネットワークメッセージは、複数の着呼者に行われる通話呼に関する特定の
状況においてネットワークによって同じオーディオが使用されるという共通の特質を共有
する。それゆえ、ダイヤルプログラムは将来においてこれらのネットワークメッセージを
受けると予測すべきであり、それらをそのようなものとして識別することは、コールプロ
グレス分析ソフトウェアが、生身の発話者に電話がつながっていないと判定する助けとな
る。コールプログレス分析ソフトウェアが以下の特性を呈することが所望される。
1.効率的である(CPUおよびメモリの使用量が低い)
2.高速である(待ち時間および遅延が短い)
3.ロバストである(検出漏れの割合が低い)
4.正確である(誤検出の割合が低い)
5.スケーラブルである(探索コストが低い)
6.反復可能である(学習曲線が低い)
一実施形態において、発信呼がリアルタイムで進行している間、CPAシステムは、従
来のAMDアルゴリズムおよび音響指紋システムの両方を使用してオーディオストリーム
を処理する。オーディオが進行しているとき、音響指紋システムは、既知のネットワーク
メッセージの音響指紋のデータベース内に一致の可能性があるか否かを識別する。そうで
ある場合、AMDアルゴリズムからの任意の出力が阻止され、代わりに、CPAシステム
が一致した音響指紋に基づいて特定のコールプログレス事象を報告する。音響指紋システ
ムがデータベース内に一致を発見しない一般的な事例について、従来のAMDアルゴリズ
ムが、グリーティングを検出し、生身の発話者または留守番電話のいずれかの事象を報告
するのに使用される。すべての事象は、通話呼を進行または終了するか、代理人に転送す
るか、自動ダイヤル装置のプランを調整するかなどのような、適切な応答を選択するため
にCPAシステムのユーザによって解釈される。他の実施形態において、音響指紋システ
ムは、CPAメカニズムを追加することなく使用される。
図2は、音響指紋を構築するための方法の一実施形態を概略的に示す。既知のオーデ
ィオセグメント、または現在の電話呼からの候補オーディオセグメントのいずれかの音響
指紋を構築するために、信号の時変スペクトル表現(本明細書においては「スペクトログ
ラム」と称される)が、4つの非限定例のみを挙げると、離散フーリエ変換(DFT)、
離散コサイン変換(DCT)、ウェーブレット変換、またはさらにはフィルタバンクのセ
ットのみのような、任意の所望の変換を使用して(ステップ100において示すように)
作成される。各フレームにおいて、周波数空間におけるパワースペクトルが計算される。
たとえば、図3Aは、以下のパラメータを使用した、オーディオサンプルの高速フーリエ
変換(FFT、離散フーリエ変換を実施するための特に効率的なアルゴリズム)において
使用されるスライディングウィンドウの、振幅対時間を示す。
サンプルレート:8kHz
フレーム持続時間:30ミリ秒
刻み幅:20ミリ秒
重なり:1/3
FFTサイズ:256
この技法を使用したオーディオサンプルのサンプルスペクトログラムが、図3Bに示さ
れている。
次のステップは、ステップ102において示すように、2値音響指紋ビットマップを作
成することである。パワースペクトログラムはそのまま使用され得るか、または、データ
を凝縮するために変換されてもよい。データを凝縮する任意の変換技法が使用され得る。
1つだけ非限定例を与えると、Haitsma−Kalkerアルゴリズムが使用され得
、ここで、一連のフレームが作成され、音響指紋ビットマップを構築するために組み合わ
される。各フレームをサイズNのビットベクトルに量子化するためにフィルタバンクが使
用され得、ここで、Nは、簡便にするために、C型整数におけるビット数(8、16、3
2、または64)として選択され得る。一実施形態において、ステップ104において示
すように、パワースペクトルデータを(N+1)個の帯域を有するメル空間に変換するた
めに、メル尺度フィルタバンクが使用される。メル尺度は、図4に示すような、聞く者に
よって互いからの距離が等しくなるように判断される音高の知覚的尺度である。
メル空間における(N+1)帯域スペクトルのシーケンスから、連続したフレームにわ
たるバンドエネルギー差に基づく一連のNビット2値指紋フレーム値がステップ106に
おいて計算される。一実施形態において、これは、以下のようにHaitsma−Kal
kerアルゴリズムを使用して行われる。
Figure 0006535706
式中、E(n,m)は、フレームnの周波数帯域mのエネルギーであり、
F(n,m)は、指紋フレームnの第mのビットである。
これは、図5に概略的に示されている。したがって、フレームあたり1つの整数のNビ
ット整数のベクトルとして、音響指紋が構築される。図1Cは、例示的な16ビット2値
音響指紋ビットマップを示す。
コールプログレス分析の間に使用するために、既知のネットワークメッセージについて
の2値音響指紋ビットマップを含むデータベースが維持される。一実施形態において、発
信呼がリアルタイムで進行している間、CPAシステムは、従来のAMDアルゴリズムお
よび音響指紋システムの両方を使用してオーディオストリームを処理する。オーディオが
進行しているとき、音響指紋システムは、入来するオーディオの2値音響指紋ビットマッ
プを作成し、それらのビットマップを、データベースに記憶されている既知のネットワー
クメッセージビットマップと比較する(ステップ108)。CPAシステムは、2値ビッ
トマップのデータベース内に一致があるか否かを識別し(ステップ110)、一致は、発
信呼の結果として、生身の発話者ではなく既知のネットワークメッセージが受けているこ
とを示す(ステップ112)。そうである場合、AMDアルゴリズムからの任意の出力が
阻止され、代わりに、CPAシステムが一致した音響指紋に基づいて特定のコールプログ
レス事象を報告する。音響指紋システムがデータベース内に一致を発見しない一般的な事
例について、従来のAMDアルゴリズムが、グリーティングを検出し、生身の発話者また
は留守番電話のいずれかの事象を報告するのに使用される(ステップ114)。すべての
事象は、通話呼を進行または終了するか、代理人に転送するか、自動ダイヤル装置のプラ
ンを調整するかなどのような、適切な応答を選択するためにCPAシステムのユーザによ
って解釈される。他の実施形態において、2値音響指紋ビットマップマッチングシステム
は、CPAメカニズムを追加することなく使用される。
Haitsma−Kalkerアルゴリズムは文献においてよく研究されている。Ja
ap HaitsmaおよびTon Kalkerの刊行された、Haitsma−Ka
lkerアルゴリズムの使用、および、数百万の歌曲のデータベースからの歌曲の3秒録
音を識別するための2値音響指紋ビットマップの比較のレポート(Haitsma an
d Kalker著「A Highly Robust Audio Fingerpr
inting System」(Journal of New Music Rese
arch,Vol.32,No.2(2003),pp.211−221))。Jaap
HaitsmaおよびTon Kalkerのシステムは、良好な結果を得るために、
大きいフレームサイズ、大きい重なり/小さい刻み幅、および大きい指紋を筆意用とした
。Jaap HaitsmaおよびTon Kalkerが使用したパラメータは以下の
通りである。
サンプルレート:5kHz
フレーム持続時間:370ミリ秒
刻み幅:10ミリ秒
重なり:31/32
FFTサイズ:2048
Haitsma−Kalkerアルゴリズムは、2値音響指紋ビットマップを相対的に
低い信号対雑音比で計算するが、ビットは雑音およびウィンドウイングアーティファクト
の影響をかなり受けやすい。許容可能に高い正確度および低い誤検出率を有する音響フィ
ンガープリンティングシステムを達成するには、一般的に、フレームサイズが大きく(3
70ms)、フレーム間の重なりが大きい(31/32、または約97%)、相対的に長
いオーディオのセグメント(約3秒)が必要になる。
そのようなシステムは計算集約的であり、信頼可能な比較を行うために相対的に大きい
オーディオサンプルを必要とし、その両方が多くのオーディオマッチングシナリオにおい
て望ましくない。本発明者らは、特に信号のエネルギーが相対的に小さい場合、2値音響
指紋ビットマップ内の多くのビットが、雑音、および、スペクトル表現への変換(ウィン
ドウィング)から生じるアーティファクトの影響を受けやすいことを観測した。提案する
解決策は、雑音およびウィンドウイングアーティファクトに起因する値の小さいビットを
マスクアウトし、マスク内にあるビット(すなわち、マスクアウトされていないビット)
のみを使用してビットマップ比較の誤り率を計算することである。
高い信号対雑音比(SNR)を得るためのマスクビットを使用した3値ビットマップ音
響指紋
正確度を犠牲にすることなくビットマップマッチング速度を改善するために、本発明の
一実施形態は、2値ビットマップを生成する任意の音響フィンガープリンティングアルゴ
リズムに以下の修正を行う。既知のネットワークメッセージビットマップが作成されるト
レーニング段階において、図6の方法が実施され得る。ステップ200において、図2に
関連して上記で説明した同じプロセスを使用して、オーディオセグメントの2値音響指紋
ビットマップが作成される。ステップ202において、示されている実施形態において、
第1のサンプルがオーディオセグメントから消去され(ただし、下記に説明するように、
他のセグメント修正方式が採用されてもよい)、ステップ204において、図2に関連し
て上記で説明した同じプロセスを使用して、修正オーディオセグメントの別の2値音響指
紋ビットマップが作成される。ステップ204〜202がX回繰り返され(ステップ20
6)、Xは、図2の音響フィンガープリンティングプロセスによって使用される、各フレ
ーム内のサンプルの数である。このプロセスが、オーディオセグメントのX個の2値音響
指紋ビットマップを生成する。
X個の2値音響指紋ビットマップは、ステップ208において以下のように組み合わさ
れて、3値ビットマップになる。
・X個すべての2値ビットマップにおいてビットが0である場合、3値ビットマップ内の
そのビットを0に設定する
・X個すべての2値ビットマップにおいてビットが1である場合、3値ビットマップ内の
そのビットを1に設定する
・それ以外の場合、3値ビットマップのそのビットを*(「Don’t Care」)に
設定する。
「Don’t Care」ビットは、フレーミング、雑音、比較、および信号歪みをも
たらす他の効果の影響を受けやすいため、連続する2値音響指紋ビットマップ内で変化す
る。上記の説明から、「Don’t Care」ビットは、ビットマップにわたって変化
する所定の割合のビット値のように、他の方法で定義されてもよいことは明らかであろう
。3値ビットマップがビットマップ比較に使用され(ステップ210)、かつ「Don’
t Care」ビットが比較プロセスの間に無視される場合、元の2値音響指紋ビットマ
ップの周波数および時間において、信号歪みをもたらすこれらの領域をマスクアウトする
。図7は、2値ビットマップと、その関連付けられる3値ビットマップとの間の例示的な
比較を示す。上記の説明から、音響指紋およびマスクをより影響を受けやすくするために
、通信チャネルによって一般的にもたらされる雑音または他のアーティファクトを加える
ことによって、音響指紋を計算する前に、入力信号が人工的に劣化され得ることも明らか
であろう。
実行時、これらの「Don’t Care」ビットは、候補オーディオストリームと既
知の指紋のデータベースとの間の評価される「マスクハミング距離」から除外される。3
値ビットマップマスクを使用することによって、入力候補オーディオストリームとデータ
ベース内の録音との間のフレーミング位置不整合に起因する検出漏れがなくなる。ウィン
ドウィングおよび雑音の影響を最も受けやすいビットを除外することによって、3値指紋
システムは、それに対応する2値指紋システムよりもロバストになり、はるかに少ないビ
ットで同等の正確度および誤検出率を達成する。分析ウィンドウがフレームサイズの分数
だけシフトされることによって、上記のステップは同じ信号の多くの指紋を作成し、それ
らの指紋はその後、指紋のいずれの部分が変化するかを識別するのに使用されることが明
らかであろう。それゆえ、ステップ202において、分析ウィンドウは、示されている単
一サンプルシフトではなく、フレームサイズの任意の分数だけシフトされ得る。加えて、
音響指紋および3値ビットマップ(マスク)は、各要素が0または1の値を有するビット
であるベクトルのベクトルとして以外の方法で、代わりに、より一般的に各要素が数値ス
コアおよび重みを含み、複数ビット表現に量子化されるベクトルのベクトルとして表現さ
れてもよいことが明らかであろう)。
たとえば、データセットの加重圧縮表現を作成するための方法は、a)データセットの
圧縮表現を計算するステップと、b)修正データセットを作成するためにデータセットか
ら第1の数の要素を消去するステップと、c)修正データセットの別の圧縮表現を計算す
るステップと、d)複数の圧縮表現を作成するために、ステップ(b)および(c)を複
数回繰り返すステップと、e)複数の圧縮表現を組み合わせて加重圧縮表現にするステッ
プであって、加重圧縮表現における各重みは、複数の圧縮表現内の要素の関数として計算
される、組み合わせるステップとを含む。
いくつかの実施形態において、圧縮表現は、第1の数の2次元ベクトルである。いくつ
かの実施形態において、第1の数は、各々、第1のビット数によって表され、第1のビッ
ト数は、いくつかの実施形態においては1ビットであってもよく、他の実施形態において
は2ビット以上であってもよい。他の実施形態において、加重圧縮表現は、第2の数の2
次元ベクトルである。いくつかの実施形態において、第2の数は、各々、第2のビット数
によって表される。いくつかの実施形態において、関数が、複数の圧縮表現内の要素の相
関係数として各上記重みを計算する。いくつかの実施形態において、相関係数は以下のよ
うに計算される。
1)要素が、複数の圧縮表現の第1の所定数内の第1の所定閾値を下回る場合、相関係数
を第1の値に設定する。
2)要素が、複数の圧縮表現の第2の所定数内の第2の所定閾値を上回る場合、相関係数
を第2の値に設定する。
3)それ以外の場合、相関係数を第3の値に設定する。
たとえば、一実施形態において、第1の値は+1であり、第2の値は−1であり、第3
の値は0である。当業者は本開示から、相関係数は−1〜+1(または任意の他の所望の
数値範囲)の任意の値とすることができることを認識しよう。本実施形態において、これ
らの値は本明細書において説明されている3値ビットマップに対応し、設定されているビ
ットが+1であり、クリアされているビットが−1であり、Don’t Careビット
が0である。閾値は、任意の所望のレベルに設定することができる。たとえば、一実施形
態において、第1の所定閾値1であってもよく、第2の所定閾値は0であってもよい。一
実施形態において相関係数を計算するとき、第1の所定数は複数の圧縮表現のすべてを含
み、第2の所定数は複数の圧縮表現のすべてを含む。
図6の方法は、2値音響指紋ビットマップを相対的に低い信号対雑音比で計算するが、
ビットは雑音およびウィンドウイングアーティファクトの影響をかなり受けやすい、図2
のHaitsma−Kalkerアルゴリズム2値音響指紋ビットマップ比較手法と比較
され得る。この手法を使用して許容可能に高い正確度および低い誤検出率を有するフィン
ガープリンティングシステムを達成するには、一般的に、フレームサイズが大きく(37
0ms)、フレーム間の重なりが大きい(31/32、または約97%)、相対的に長い
オーディオのセグメント(約3秒)が必要になる。比較すると、図6に示すもののような
、本明細書に開示する3値音響指紋ビットマップ方法は、30msの小さいフレームサイ
ズおよび33%の小さいのフレーム重なりを使用する低帯域幅オーディオの短いセグメン
ト(8kHzで約0.25秒)で、はるかにより効率的に同等のマッチング正確度および
精度を得ることができる。これは、約1/12の時間量でマッチングを達成するだけでな
く、計算集約度がより低く、品質の低いオーディオサンプルで良好に機能する。
しらみつぶし探索を使用した最小遅延でのデータベース内の音響指紋のリアルタイムマ
ッチング
ほとんどの既存の音響フィンガープリンティングシステムは、有効な一致を達成するた
めにソースオーディオストリームの大きいセグメントを必要とするため、リアルタイム用
途には良好に適合しているとは言えない。この要件は、マッチングされるセグメントの始
まりから一致する指紋が確認され得るまでに数秒の時間遅延を課す。しかしながら、従来
のAMDのような他の信号処理アルゴリズムと協働してリアルタイムでフィンガープリン
ティングを使用するために、フィンガープリンティングシステムは、一致が数分の1秒以
内に起こる可能性があるか否かを確認しなければならない。最小遅延を達成するために、
本発明者らは、数千指紋単位でデータベースに対してリアルタイムでオーディオストリー
ムをマッチングするために最適化されたしらみつぶし探索を使用する手法を提案する。
図8および図9に示すように、前処理の間、フレームあたりN個の3進値で、各オーデ
ィオ検出対象につき1つの、3値音響指紋ビットマップの集合が生成される(ステップ3
00)。各指紋について、3値ビットマップが細分化されて複数の均等なセグメントにな
る(ステップ302)。一実施形態において、3値ビットマップは、図9に示すように細
分化されて4つの均等なセグメントになる。各セグメントから、ハッシュキーが、128
/Nフレームの細分化指紋から3進値を抽出することによって得られ(ステップ304)
、各ハッシュキーにおいて3進値は合計128個になる(すなわち、128ビット3値ハ
ッシュキー)。ハッシュキーはより少ないまたはより多い数の値を有してもよいことが明
らかであろう。3値音響指紋ビットマップからこのようにして得られたハッシュキーのす
べてが、その後、凝集されて単一のルックアップテーブルになる(ステップ306)。音
響指紋の様々なセグメントからハッシュキーを選択することによって、たとえ候補オーデ
ィオストリームが断続的な録音であり、録音の始まりが受信されていない場合であっても
、マッチングが行われることが可能になる。たとえば、音楽のサンプルを識別するために
この方法を使用する場合、ある歌曲を識別することを望む者は、その歌曲の再生が開始し
たいくらか後まで、識別されるべき歌曲のサンプルの録音を開始しない場合がある(そし
て概ね、そうしない)。音響指紋の異なるセグメントからのハッシュキーを使用すること
によって、候補オーディオストリームとデータベース内の音響指紋との間でさらにマッチ
ングを行うことが可能になる。
図10は、ハッシュキーのルックアップテーブルが組み立てられた後で実行時に使用さ
れ得るマッチング手順の一実施形態を示す。入力オーディオストリームの新たな各フレー
ムについて、長さNの新たなビットベクトルを生成するために、2値ビットマップ音響フ
ィンガープリンティングアルゴリズムが使用される(ステップ400)。先行する128
/Nフレームの入力オーディオストリームからのビットベクトルが組み合わされて、検索
のための128ビット2値ハッシュキーになる(ステップ402)。入力オーディオスト
リームの現在の128ビットハッシュキーが、マスクハミング距離を計算することによっ
て、ルックアップテーブル内の3値ハッシュキーのすべてに対して比較される(ステップ
404)。現代のマイクロプロセッサでは、この計算は、単一命令複数データ命令(In
telx86マイクロプロセッサアーキテクチャに対するSSEまたはAVX SIMD
命令セット拡張など)および/または「ポピュレーションカウント」命令によって容易に
並列化および最適化することができる。ルックアップテーブル内の任意のハッシュキーが
十分に短いマスクハミング距離で一致する場合(ステップ406)、ハッシュキーに対応
するオーディオ指紋は「候補」として識別される(ステップ408)。候補を確立するた
めの閾値ビット誤り率(BER)は、相対的に低い値のσcandidate(たとえば
、3つの標準偏差、ただし、他の閾値が使用されてもよい)に基づいてもよい。候補の全
体的なBERが相対的に大きい値のσnotify(たとえば、9個の標準偏差、ただし
、他の閾値が使用されてもよい)を超える場合(ステップ410)、この候補は一致であ
ると決定される(ステップ412)。一致が判定されなかった場合、プロセスはステップ
400に戻り、長さNの新たなビットベクトルを生成するために次のフレームが使用され
る。後続のフレームを分析し続けることによって、プロセスは、マスクハミング距離が閾
値に収まるかに基づいて、すべての候補を一致または不一致として解決することが可能で
ある。
大きいオーディオ集合からの一般的な録音について指紋を抽出するための方法
上記の説明から明らかになるように、オーディオサンプルを、既知の録音のデータベー
スとマッチングするためのシステムおよび方法が提供される。上記で説明されたシステム
および方法は、計算効率的であり、データベース内の音響指紋との一致を識別することが
可能であるが、データベース内の音響指紋によって表されることになる録音を効率的に識
別する方法において、問題が残っている。そうするために以下において説明される方法は
、電話コンタクトセンターのコンテキストにおいて説明されるが、当業者は、本開示から
、本方法が、任意のタイプのソースオーディオ、画像、または他のタイプのデータに関係
する指紋データベースのコンパイルに適用され得ることを認識しよう。
コンタクトセンターからの相当に大きいキャンペーンによって、毎日数千の発信呼のデ
ジタル録音が生成され得る。この録音の集合から、将来の通話呼キャンペーンにおいてC
PAを補助するために、対象のコールプログレス事象を含むすべてのオーディオセグメン
トを抽出することが目標となる。たとえば、キャンペーンにおける多くの通話呼が、同じ
ネットワークまたはサブネットワーク上の複数の番号にダイヤルされ、これによって、各
加入者に同一の録音されたグリーティングが再生される。自動化データ駆動技法がなけれ
ば、いずれの音響指紋から候補セグメントが抽出され得るかを識別sルウために、大量の
データが人間の被験者によって聞かれなければならない。本発明者らは、大きい録音集合
内の共通の録音を自動的に識別するためのオフラインプロセスを提案し、それによって、
CPAの正確度を改善するために将来の通話呼キャンペーンにおいて録音が検出され得る
。本発明において指紋の自動識別に使用されるプロセスが、図11に概略的に示されてい
る。
ステップ500において、AMDおよび音響フィンガープリンティングと組み合わされ
た(データベースがすでに何らかの既知の録音についての音響指紋を含む場合)CPAシ
ステムが、そこで検出される事象に基づいて、集合内のすべての録音を分類するのに使用
される。従来のAMDを使用して生身の発話者または留守番電話として分類されたすべて
の録音について、ステップ502において、無言、背景雑音、または純音を含まないオー
ディオセグメントの終了点が識別される。たとえば、発話パターン、音楽、非発話信号な
どを含むオーディオセグメントが、ステップ502において識別される。ステップ504
において、上記で説明された方法を使用してすべての識別されたセグメントについて3値
音響指紋ビットマップが生成される(3値ビットマップの代わりに2値音響指紋ビットマ
ップを使用することができることは明らかであろう)。ステップ506において、これら
の新たな音響指紋が音響指紋データベースに加えられる。その後、ステップ508におい
て、新たに増補された3値音響指紋データベースを使用して、集合内の録音のすべてがC
PA/AMDシステムによって再処理される。ステップ510において、システムは、固
有でなく複数回検出された、増補された指紋(すなわち、増補された音響指紋のうち、複
数のものと一致したとして処理されている、集合内の録音、これは、これらがその集合に
おいて複数回受けた録音の音響指紋であることを示す)を識別する。複数回発見された任
意の音響指紋は、対象のコールプログレス事象の候補である可能性が高く、それゆえ、ス
テップ512において、将来のCPAタスクにおいて使用するために、音響指紋データベ
ース内に残される。ステップ514において、他の増補された指紋のすべて(すなわち、
複数回検出されなかった新たな音響指紋)は、音声発話の固有のオーディオセグメントを
表し、それゆえ、録音されたネットワークメッセージであると判定することができないた
め、データベースから消去される。このように、大きい録音(または画像もしくは他のデ
ータの)集合を調べ、そこから複数回受けた録音の指紋を抽出するために自動化システム
が使用され得る。この方法は、音響指紋データベースが自動的に構築され、様々な電話会
社において回線内に持ち込まれ得る新たなネットワークメッセージを計上するために継続
的に更新されることを可能にする。
上記の説明から分かるように、様々な実施形態が、入力オーディオセグメントの、デー
タベース内の既知のオーディオセグメントとのマッチングを可能にする。オーディオセグ
メントは任意のソースに由来し、発話、発信音、音楽のような任意のタイプのオーディオ
、または、認識されることが所望される任意の他のオーディオを含み得る。例示的な実施
形態において、発信電話呼の間に受ける既知のネットワークメッセージ記録の認識ととも
に、本明細書において開示されるシステムおよび方法を使用することが説明された。しか
しながら、当業者は、開示されるシステムおよび方法が、任意の形態のオーディオ、画像
、または他のタイプのデータのような、任意のタイプの2次元以上のデータセットの認識
に用途を見出すことになることを認識しよう。
ステップ、ソフトウェアブロック、データおよびデータ構造体の編成は明瞭に線引きさ
れているものとして示されているが、当業者には、ステップ、ブロックおよびデータ間の
線引きはいくらか任意裁量によることは明らかであろう。ステップ、ソフトウェアブロッ
クおよびデータの多数の他の構成が可能である。
最後に、本発明は、本発明を実行するためのいくつかの実施形態の例示にすぎず、形態
、部分の構成、ステップ、詳細および動作の順序の修正を受け入れる余地がある、本明細
書に記載されている実施形態には限定されないことは理解されよう。そうではなく、本発
明は、特許請求の範囲の範囲によって規定されるような、その精神および範囲内で、すべ
てのそのような修正を包含するように意図されている。

Claims (28)

  1. マイクロプロセッサを含むシステムによってなされる、データセットの3値ビットマップを作成するための方法であって、
    a)前記データセットの2値指紋ビットマップを計算するステップと、
    b)前記データセットから第1の数のサンプルを消去するステップと、
    c)ステップ(b)の後、前記データセットの別の2値指紋ビットマップを計算するステップと、
    d)複数の2値指紋ビットマップを作成するために、ステップ(b)および(c)を複数回繰り返すステップと、
    e)前記複数の2値指紋ビットマップを組み合わせて3値ビットマップにするステップであって、前記3値ビットマップ内の各ビットは、
    e.1)前記複数の2値ビットマップのうちの第1の所定数においてビットが0である場合、前記3値ビットマップ内の前記ビットを0に設定し、
    e.2)前記複数の2値ビットマップのうちの第2の所定数においてビットが1である場合、前記3値ビットマップ内の前記ビットを1に設定し、
    e.3)それ以外の場合、前記3値ビットマップ内の前記ビットを*(「Don’t Care」)に設定するように決定される、組み合わせるステップと
    を含む、方法。
  2. 前記第1の数のサンプルは、前記データセットからの第1の複数のサンプルを含む、請求項1に記載の方法。
  3. 前記第1の所定数は前記複数の2値ビットマップのすべてを含み、前記第2の所定数は前記複数の2値ビットマップのすべてを含む、請求項1に記載の方法。
  4. 前記第1の所定数および前記第2の所定数は等しい、請求項1に記載の方法。
  5. 前記データセットはステップ(a)の前に人工的に劣化される、請求項1に記載の方法。
  6. 前記2値指紋ビットマップは音響指紋ビットマップを含む、請求項1に記載の方法。
  7. 前記データセットはオーディオセグメントを含む、請求項1に記載の方法。
  8. 前記オーディオセグメントは発信電話呼からのオーディオセグメントを含む、請求項7に記載の方法。
  9. マイクロプロセッサを含むシステムによってなされる、候補データセットを識別するための方法であって、
    a)既知のデータセットデータベース内の既知のデータセットの2値指紋ビットマップを計算するステップと、
    b)前記既知のデータセットから第1の数のサンプルを消去するステップと、
    c)ステップ(b)の後、前記既知のデータセットの別の2値指紋ビットマップを計算するステップと、
    d)複数の2値指紋ビットマップを作成するために、ステップ(b)および(c)を複数回繰り返すステップと、
    e)前記複数の2値指紋ビットマップを組み合わせて3値ビットマップにするステップであって、前記3値ビットマップ内の各ビットは、
    e.1)前記複数の2値ビットマップのうちの第1の所定数においてビットが0である場合、前記3値ビットマップ内の前記ビットを0に設定し、
    e.2)前記複数の2値ビットマップのうちの第2の所定数においてビットが1である場合、前記3値ビットマップ内の前記ビットを1に設定し、
    e.3)それ以外の場合、前記3値ビットマップ内の前記ビットを*(「Don’t Care」)に設定するように決定される、組み合わせるステップと、
    f)前記3値ビットマップを3値ビットマップデータベース内に保存するステップと、
    g)前記既知のデータセットデータベース内のすべての既知のデータセットについてステップ(a)〜(f)を繰り返すステップと、
    h)前記候補データセットから候補データセット2値指紋ビットマップを作成するステップと、
    i)前記候補データセット2値指紋ビットマップを前記3値ビットマップデータベース内の各3値ビットマップと比較するステップであって、前記比較は前記Don’t Careビットを無視する、比較するステップと
    を含む、方法。
  10. 前記第1の数のサンプルは、前記データセットからの第1の複数のサンプルを含む、請求項9に記載の方法。
  11. 前記第1の所定数は前記複数の2値ビットマップのすべてを含み、前記第2の所定数は前記複数の2値ビットマップのすべてを含む、請求項9に記載の方法。
  12. 前記第1の所定数および前記第2の所定数は等しい、請求項9に記載の方法。
  13. 前記データセットはステップ(a)の前に人工的に劣化される、請求項9に記載の方法。
  14. 前記2値指紋ビットマップおよび前記候補2値指紋ビットマップは各々、音響指紋ビットマップを含む、請求項9に記載の方法。
  15. 前記データセットはオーディオセグメントを含む、請求項9に記載の方法。
  16. 前記オーディオセグメントは発信電話呼からのオーディオセグメントを含む、請求項15に記載の方法。
  17. マイクロプロセッサを含むシステムによってなされる、オーディオセグメントの3値ビットマップを作成するための方法であって、
    a)前記オーディオセグメントの2値音響指紋ビットマップを計算するステップと、
    b)前記オーディオセグメントから第1の数のサンプルを消去するステップと、
    c)ステップ(b)の後、前記オーディオセグメントの別の2値音響指紋ビットマップを
    計算するステップと、
    d)複数の2値音響指紋ビットマップを作成するために、ステップ(b)および(c)を複数回繰り返すステップと、
    e)前記複数の2値音響指紋ビットマップを組み合わせて3値ビットマップにするステップであって、前記3値ビットマップ内の各ビットは、
    e.1)前記複数の2値ビットマップのうちの第1の所定数においてビットが0である場合、前記3値ビットマップ内の前記ビットを0に設定し、
    e.2)前記複数の2値ビットマップのうちの第2の所定数においてビットが1である場合、前記3値ビットマップ内の前記ビットを1に設定し、
    e.3)それ以外の場合、前記3値ビットマップ内の前記ビットを*(「Don’t Care」)に設定するように決定される、組み合わせるステップと
    を含む、方法。
  18. 前記第1の数のサンプルは、前記オーディオセグメントからの第1の複数のサンプルを含む、
    請求項17に記載の方法。
  19. 前記第1の所定数は前記複数の2値ビットマップのすべてを含み、前記第2の所定数は前記複数の2値ビットマップのすべてを含む、請求項17に記載の方法。
  20. 前記第1の所定数および前記第2の所定数は等しい、請求項17に記載の方法。
  21. データセットがステップ(a)の前に人工的に劣化される、請求項17に記載の方法。
  22. 前記オーディオセグメントは発信電話呼からのオーディオセグメントを含む、請求項17に記載の方法。
  23. マイクロプロセッサを含むシステムによってなされる、候補オーディオセグメントを識別するための方法であって、
    a)既知のオーディオセグメントデータベース内の既知のオーディオセグメントの2値音
    響指紋ビットマップを計算するステップと、
    b)前記既知のオーディオセグメントから第1の数のサンプルを消去するステップと、
    c)ステップ(b)の後、前記既知のオーディオセグメントの別の2値音響指紋ビットマップを計算するステップと、
    d)複数の2値音響指紋ビットマップを作成するために、ステップ(b)および(c)を複数回繰り返すステップと、
    e)前記複数の2値音響指紋ビットマップを組み合わせて3値ビットマップにするステップであって、前記3値ビットマップ内の各ビットは、
    e.1)前記複数の2値ビットマップのうちの第1の所定数においてビットが0である場合、前記3値ビットマップ内の前記ビットを0に設定し、
    e.2)前記複数の2値ビットマップのうちの第2の所定数においてビットが1である場合、前記3値ビットマップ内の前記ビットを1に設定し、
    e.3)それ以外の場合、前記3値ビットマップ内の前記ビットを*(「Don’t Care」)に設定するように決定される、組み合わせるステップと、
    f)前記3値ビットマップを3値ビットマップデータベース内に保存するステップと、
    g)前記既知のオーディオセグメントデータベース内のすべての既知のオーディオセグメントについてステップ(a)〜(f)を繰り返すステップと、
    h)前記候補オーディオセグメントから候補オーディオセグメント2値音響指紋ビットマップを作成するステップと、
    i)前記候補オーディオセグメント2値音響指紋ビットマップを前記3値ビットマップデータベース内の各3値ビットマップと比較するステップであって、前記比較は前記Don’t Careビットを無視する、比較するステップと
    を含む、方法。
  24. 前記第1の数のサンプルは、前記データセットからの第1の複数のサンプルを含む、請求項23に記載の方法。
  25. 前記第1の所定数は前記複数の2値ビットマップのすべてを含み、前記第2の所定数は前記複数の2値ビットマップのすべてを含む、請求項23に記載の方法。
  26. 前記第1の所定数および前記第2の所定数は等しい、請求項23に記載の方法。
  27. 前記データセットはステップ(a)の前に人工的に劣化される、請求項23に記載の方法。
  28. 前記オーディオセグメントは発信電話呼からのオーディオセグメントを含む、請求項23に記載の方法。
JP2017138010A 2012-03-28 2017-07-14 データセットの3値ビットマップを作成するための方法 Active JP6535706B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/432,838 2012-03-28
US13/432,838 US8681950B2 (en) 2012-03-28 2012-03-28 System and method for fingerprinting datasets

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015503224A Division JP6178840B2 (ja) 2012-03-28 2013-03-04 オーディオセグメントを識別するための方法

Publications (2)

Publication Number Publication Date
JP2017207770A JP2017207770A (ja) 2017-11-24
JP6535706B2 true JP6535706B2 (ja) 2019-06-26

Family

ID=49235038

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015503224A Active JP6178840B2 (ja) 2012-03-28 2013-03-04 オーディオセグメントを識別するための方法
JP2017138010A Active JP6535706B2 (ja) 2012-03-28 2017-07-14 データセットの3値ビットマップを作成するための方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015503224A Active JP6178840B2 (ja) 2012-03-28 2013-03-04 オーディオセグメントを識別するための方法

Country Status (11)

Country Link
US (4) US8681950B2 (ja)
EP (3) EP3076391B1 (ja)
JP (2) JP6178840B2 (ja)
AU (3) AU2013240453B2 (ja)
BR (1) BR112014023865B1 (ja)
CA (1) CA2866347C (ja)
CL (3) CL2014002551A1 (ja)
HK (1) HK1202734A1 (ja)
NZ (2) NZ713997A (ja)
WO (1) WO2013148069A1 (ja)
ZA (1) ZA201406474B (ja)

Families Citing this family (200)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7516074B2 (en) * 2005-09-01 2009-04-07 Auditude, Inc. Extraction and matching of characteristic fingerprints from audio signals
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US20120136701A1 (en) * 2010-11-26 2012-05-31 Rohan Relan Method and system for faciliating interactive commercials in real time
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US8886635B2 (en) * 2012-05-23 2014-11-11 Enswers Co., Ltd. Apparatus and method for recognizing content using audio signal
US9235867B2 (en) * 2012-06-04 2016-01-12 Microsoft Technology Licensing, Llc Concurrent media delivery
WO2013184520A1 (en) * 2012-06-04 2013-12-12 Stone Troy Christopher Methods and systems for identifying content types
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US20140064107A1 (en) * 2012-08-28 2014-03-06 Palo Alto Research Center Incorporated Method and system for feature-based addressing
AU2013308637B2 (en) * 2012-08-30 2018-07-26 Interactive Intelligence, Inc. Method and system for learning call analysis
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9263059B2 (en) * 2012-09-28 2016-02-16 International Business Machines Corporation Deep tagging background noises
CN103856600B (zh) * 2012-12-04 2016-09-28 中兴通讯股份有限公司 一种内置搜索语音短信功能的移动终端及其搜索方法
US10971191B2 (en) * 2012-12-12 2021-04-06 Smule, Inc. Coordinated audiovisual montage from selected crowd-sourced content with alignment to audio baseline
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3937002A1 (en) 2013-06-09 2022-01-12 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9571994B2 (en) * 2013-12-17 2017-02-14 Matthew Stephen Yagey Alert systems and methodologies
US9767266B2 (en) * 2013-12-20 2017-09-19 The Mitre Corporation Methods and systems for biometric-based user authentication by voice
WO2015134452A1 (en) 2014-03-04 2015-09-11 Interactive Intelligence Group, Inc. Optimization of audio fingerprint search
US10348724B2 (en) * 2014-04-07 2019-07-09 Barco N.V. Ad hoc one-time pairing of remote devices using online audio fingerprinting
US10074374B2 (en) * 2014-04-07 2018-09-11 Barco N.V. Ad hoc one-time pairing of remote devices using online audio fingerprinting
US20150316666A1 (en) * 2014-05-05 2015-11-05 The Board Of Trustees Of The Leland Stanford Junior University Efficient Similarity Search of Seismic Waveforms
US9620105B2 (en) * 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
WO2016024171A1 (en) 2014-08-14 2016-02-18 Yandex Europe Ag Method of and a system for indexing audio tracks using chromaprints
WO2016024172A1 (en) * 2014-08-14 2016-02-18 Yandex Europe Ag Method of and a system for matching audio tracks using chromaprints with a fast candidate selection routine
US10447848B2 (en) * 2014-09-09 2019-10-15 Cyara Solutions Pty Ltd System and method for reliable call recording testing and proprietary customer information retrieval
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9704507B2 (en) * 2014-10-31 2017-07-11 Ensequence, Inc. Methods and systems for decreasing latency of content recognition
KR20160102815A (ko) * 2015-02-23 2016-08-31 한국전자통신연구원 잡음에 강인한 오디오 신호 처리 장치 및 방법
US10142471B2 (en) * 2015-03-02 2018-11-27 Genesys Telecommunications Laboratories, Inc. System and method for call progress detection
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
EP3286757B1 (en) 2015-04-24 2019-10-23 Cyber Resonance Corporation Methods and systems for performing signal analysis to identify content types
CN106294331B (zh) * 2015-05-11 2020-01-21 阿里巴巴集团控股有限公司 音频信息检索方法及装置
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9818414B2 (en) * 2015-06-04 2017-11-14 Intel Corporation Dialogue system with audio watermark
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
KR20170101500A (ko) * 2016-02-29 2017-09-06 한국전자통신연구원 노이즈 제거를 통한 오디오 신호 식별 방법 및 장치
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9786298B1 (en) * 2016-04-08 2017-10-10 Source Digital, Inc. Audio fingerprinting based on audio energy characteristics
US10397663B2 (en) * 2016-04-08 2019-08-27 Source Digital, Inc. Synchronizing ancillary data to content including audio
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
GB2556023B (en) * 2016-08-15 2022-02-09 Intrasonics Sarl Audio matching
RU2633159C1 (ru) * 2016-08-26 2017-10-11 Общество с ограниченной ответственностью "Лаборатория ИнфоВотч" Способ автоматизированного анализа растровых изображений
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
EP3679484A1 (en) 2017-10-03 2020-07-15 Google LLC Identifying the music as a particular song
EP3477643B1 (en) * 2017-10-31 2019-10-16 Spotify AB Audio fingerprint extraction and audio recognition using said fingerprints
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10861428B2 (en) * 2018-01-10 2020-12-08 Qrs Music Technologies, Inc. Technologies for generating a musical fingerprint
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10339974B1 (en) * 2018-03-01 2019-07-02 Motorola Solutions, Inc. Audio controller device and method of operation thereof
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
CN110322886A (zh) * 2018-03-29 2019-10-11 北京字节跳动网络技术有限公司 一种音频指纹提取方法及装置
CN110322897B (zh) 2018-03-29 2021-09-03 北京字节跳动网络技术有限公司 一种音频检索识别方法及装置
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10944859B2 (en) 2018-06-03 2021-03-09 Apple Inc. Accelerated task performance
GB201810202D0 (en) 2018-06-21 2018-08-08 Magus Communications Ltd Answer machine detection method & apparatus
US10713544B2 (en) 2018-09-14 2020-07-14 International Business Machines Corporation Identification and/or verification by a consensus network using sparse parametric representations of biometric images
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10761841B2 (en) 2018-10-17 2020-09-01 Denso International America, Inc. Systems and methods for identifying source code from binaries using machine learning
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11120820B2 (en) 2018-12-05 2021-09-14 International Business Machines Corporation Detection of signal tone in audio signal
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
CN113366465A (zh) * 2019-01-31 2021-09-07 奥普塔姆软件股份有限公司 近似匹配
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN110047515B (zh) * 2019-04-04 2021-04-20 腾讯音乐娱乐科技(深圳)有限公司 一种音频识别方法、装置、设备及存储介质
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
KR20200142787A (ko) 2019-06-13 2020-12-23 네이버 주식회사 멀티미디어 신호 인식을 위한 전자 장치 및 그의 동작 방법
US11245959B2 (en) 2019-06-20 2022-02-08 Source Digital, Inc. Continuous dual authentication to access media content
US11990239B2 (en) 2019-07-12 2024-05-21 GE Precision Healthcare LLC System and method for analyzing noise in electrophysiology studies
US11276418B2 (en) 2019-09-12 2022-03-15 International Business Machines Corporation Acoustic signature generation by embedding user sentiments
US10897534B1 (en) * 2019-09-13 2021-01-19 International Business Machines Corporation Optimization for a call that waits in queue
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
CN111444376A (zh) * 2020-04-15 2020-07-24 厦门快商通科技股份有限公司 一种音频指纹的识别方法和装置以及设备
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11810578B2 (en) 2020-05-11 2023-11-07 Apple Inc. Device arbitration for digital assistant-based intercom systems
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11146686B1 (en) 2020-06-09 2021-10-12 Capital One Services, Llc Systems for identifying the answering party of an automated voice call
AU2021300121A1 (en) * 2020-06-30 2023-01-19 Genesys Cloud Services Holdings II, LLC Cumulative average spectral entropy analysis for tone and speech classification
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN111597379B (zh) * 2020-07-22 2020-11-03 深圳市声扬科技有限公司 音频搜索方法、装置、计算机设备和计算机可读存储介质
CN112511698B (zh) * 2020-12-03 2022-04-01 普强时代(珠海横琴)信息技术有限公司 一种基于通用边界检测的实时通话分析方法
CN112420072B (zh) * 2021-01-25 2021-04-27 北京远鉴信息技术有限公司 一种语谱图的生成方法、装置、电子设备及存储介质
EP4120099A1 (en) * 2021-07-14 2023-01-18 Utopia Music AG Apparatus for processing fingerprint hashes of audio stream
US11778094B2 (en) 2021-12-06 2023-10-03 Intrado Corporation Time tolerant prompt detection
US11825025B2 (en) * 2021-12-06 2023-11-21 Intrado Corporation Prompt detection by dividing waveform snippets into smaller snipplet portions
US12015737B2 (en) 2022-05-30 2024-06-18 Ribbon Communications Operating Company, Inc. Methods, systems and apparatus for generating and/or using communications training data

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4697209A (en) * 1984-04-26 1987-09-29 A. C. Nielsen Company Methods and apparatus for automatically identifying programs viewed or recorded
US4941168A (en) 1988-09-21 1990-07-10 U.S. Telecom International Inc. System for the recognition of automated telephone answering devices and delivery of prerecorded messages to such devices
US5007000A (en) 1989-06-28 1991-04-09 International Telesystems Corp. Classification of audio signals on a telephone line
US5581602A (en) 1992-06-19 1996-12-03 Inventions, Inc. Non-offensive termination of a call detection of an answering machine
US5404400A (en) 1993-03-01 1995-04-04 Dialogic Corporation Outcalling apparatus
US5621852A (en) * 1993-12-14 1997-04-15 Interdigital Technology Corporation Efficient codebook structure for code excited linear prediction coding
GB2293723B (en) 1994-09-28 1999-04-14 Rockwell International Corp Automatic call distributor with answer machine detection apparatus and method
US5832115A (en) * 1997-01-02 1998-11-03 Lucent Technologies Inc. Ternary image templates for improved semantic compression
US7949104B1 (en) 1998-03-26 2011-05-24 The Broadcast Team, Inc. Message delivery system with echo-cancellation
US6208970B1 (en) 1998-12-21 2001-03-27 Nortel Networks Limited Method and system for estimation of a source of a voice signal
US6963975B1 (en) 2000-08-11 2005-11-08 Microsoft Corporation System and method for audio fingerprinting
US6990453B2 (en) 2000-07-31 2006-01-24 Landmark Digital Services Llc System and methods for recognizing sound and music signals in high noise and distortion
US7359889B2 (en) 2001-03-02 2008-04-15 Landmark Digital Services Llc Method and apparatus for automatically creating database for use in automated media recognition system
US20050234727A1 (en) 2001-07-03 2005-10-20 Leo Chiu Method and apparatus for adapting a voice extensible markup language-enabled voice system for natural speech recognition and system response
US20090144131A1 (en) 2001-07-03 2009-06-04 Leo Chiu Advertising method and apparatus
US7406418B2 (en) 2001-07-03 2008-07-29 Apptera, Inc. Method and apparatus for reducing data traffic in a voice XML application distribution system through cache optimization
US7711570B2 (en) 2001-10-21 2010-05-04 Microsoft Corporation Application abstraction with dialog purpose
US7127058B2 (en) 2002-03-27 2006-10-24 Nortel Networks Limited Managing communications in a call center
US7117158B2 (en) 2002-04-25 2006-10-03 Bilcare, Inc. Systems, methods and computer program products for designing, deploying and managing interactive voice response (IVR) systems
US7190768B2 (en) 2002-08-20 2007-03-13 Avaya Technology Corp. Method and apparatus for human-assisted adaptive outbound telephone call classification based on pattern recognition
AU2003264774A1 (en) 2002-11-01 2004-05-25 Koninklijke Philips Electronics N.V. Improved audio data fingerprint searching
US7386101B2 (en) 2003-04-08 2008-06-10 Intervoice Limited Partnership System and method for call answer determination for automated calling systems
US20060155399A1 (en) 2003-08-25 2006-07-13 Sean Ward Method and system for generating acoustic fingerprints
US7457396B2 (en) 2003-09-05 2008-11-25 Emc Corporation Automated call management
US7734032B1 (en) 2004-03-31 2010-06-08 Avaya Inc. Contact center and method for tracking and acting on one and done customer contacts
US7184521B2 (en) 2004-06-10 2007-02-27 Par3 Communications, Inc. Method and system for identifying a party answering a telephone call based on simultaneous activity
US7555114B1 (en) 2004-09-16 2009-06-30 Prairie Systems, Inc. System and method for analyzing outbound calling campaigns
US20060104433A1 (en) * 2004-11-18 2006-05-18 Simpson Jason D Call center campaign system
US7567899B2 (en) * 2004-12-30 2009-07-28 All Media Guide, Llc Methods and apparatus for audio recognition
EP1864243A4 (en) 2005-02-08 2009-08-05 Landmark Digital Services Llc AUTOMATIC IDENTIFICATION OF REPEATED MATERIAL IN AUDIO SIGNALS
US8036374B2 (en) 2005-05-16 2011-10-11 Noble Systems Corporation Systems and methods for detecting call blocking devices or services
JP2006345181A (ja) * 2005-06-08 2006-12-21 Ntt Comware Corp アウトバンドキャンペーンシステム
JP2007004709A (ja) * 2005-06-27 2007-01-11 Toshiba Corp 対象パターン検出方法及びその装置
US7516074B2 (en) * 2005-09-01 2009-04-07 Auditude, Inc. Extraction and matching of characteristic fingerprints from audio signals
JP2007206603A (ja) 2006-02-06 2007-08-16 Nissan Motor Co Ltd 音響モデルの作成方法
US8145656B2 (en) 2006-02-07 2012-03-27 Mobixell Networks Ltd. Matching of modified visual and audio media
KR100774585B1 (ko) 2006-02-10 2007-11-09 삼성전자주식회사 변조 스펙트럼을 이용한 음악 정보 검색 방법 및 그 장치
US20080086311A1 (en) 2006-04-11 2008-04-10 Conwell William Y Speech Recognition, and Related Systems
US20080066098A1 (en) 2006-08-25 2008-03-13 Skyclix, Inc. Phone-based targeted advertisement delivery
US8023654B2 (en) * 2006-12-18 2011-09-20 Palo Alto Research Center Incorporated Securing multimedia network communication
WO2008150544A1 (en) 2007-06-06 2008-12-11 Dolby Laboratories Licensing Corporation Improving audio/video fingerprint search accuracy using multiple search combining
US8243889B2 (en) * 2007-08-23 2012-08-14 Voxeo Corporation System and method for dynamic call-progress analysis and call processing
JP4596066B2 (ja) * 2007-12-06 2010-12-08 三菱電機株式会社 画像処理装置、画像処理方法および画像表示装置
JP4477678B2 (ja) * 2008-01-21 2010-06-09 富士通株式会社 電子署名方式、電子署名プログラムおよび電子署名装置
GB2457694B (en) * 2008-02-21 2012-09-26 Snell Ltd Method of Deriving an Audio-Visual Signature
US20100023328A1 (en) * 2008-07-28 2010-01-28 Griffin Jr Paul P Audio Recognition System
US8428301B2 (en) * 2008-08-22 2013-04-23 Dolby Laboratories Licensing Corporation Content identification and quality monitoring
JP5271669B2 (ja) * 2008-10-31 2013-08-21 株式会社日立製作所 生体認証方法およびシステム
US8300783B2 (en) 2009-02-09 2012-10-30 Applied Minds, Llc Method and apparatus for establishing data link based on audio connection
CN102461066B (zh) 2009-05-21 2015-09-09 数字标记公司 鉴别内容信号的方法
US8484439B1 (en) * 2009-10-27 2013-07-09 Juniper Networks, Inc. Scalable hash tables
US20110173185A1 (en) * 2010-01-13 2011-07-14 Rovi Technologies Corporation Multi-stage lookup for rolling audio recognition
US8599836B2 (en) 2010-01-27 2013-12-03 Neobitspeak LLC Web-based, hosted, self-service outbound contact center utilizing speaker-independent interactive voice response and including enhanced IP telephony
US9275141B2 (en) * 2010-05-04 2016-03-01 Shazam Entertainment Ltd. Methods and systems for processing a sample of a media stream
US9047371B2 (en) * 2010-07-29 2015-06-02 Soundhound, Inc. System and method for matching a query against a broadcast stream
GB2487734B (en) * 2011-02-01 2017-02-08 Dxi Ltd Answer machine detection system
US9165124B1 (en) * 2012-02-01 2015-10-20 Convertro, Inc. Systems and methods for identifying a returning web client

Also Published As

Publication number Publication date
EP2832080B1 (en) 2017-05-03
US9934305B2 (en) 2018-04-03
AU2016202340A1 (en) 2016-05-05
NZ629522A (en) 2016-04-29
EP2832080A1 (en) 2015-02-04
BR112014023865A2 (pt) 2017-06-20
EP3076391B1 (en) 2018-07-04
AU2016202340B2 (en) 2017-10-19
CA2866347C (en) 2020-06-09
AU2013240453B2 (en) 2016-05-26
BR112014023865B1 (pt) 2022-12-27
ZA201406474B (en) 2020-05-27
JP2017207770A (ja) 2017-11-24
EP3076554B1 (en) 2017-11-22
CL2016001146A1 (es) 2016-12-02
JP2015515646A (ja) 2015-05-28
US10552457B2 (en) 2020-02-04
US20130259211A1 (en) 2013-10-03
US20140195501A1 (en) 2014-07-10
HK1202734A1 (en) 2015-10-02
CL2016001145A1 (es) 2016-12-02
EP2832080A4 (en) 2016-03-02
EP3076554A1 (en) 2016-10-05
WO2013148069A1 (en) 2013-10-03
CA2866347A1 (en) 2013-10-03
AU2016202320B2 (en) 2017-08-24
US9679042B2 (en) 2017-06-13
BR112014023865A8 (pt) 2021-06-15
CL2014002551A1 (es) 2015-05-08
EP3076391A1 (en) 2016-10-05
US20140149120A1 (en) 2014-05-29
AU2013240453A1 (en) 2014-09-18
US8681950B2 (en) 2014-03-25
JP6178840B2 (ja) 2017-08-09
NZ713997A (en) 2017-05-26
AU2016202320A1 (en) 2016-05-05
US20180144040A1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
JP6535706B2 (ja) データセットの3値ビットマップを作成するための方法
CA3032807C (en) Call classification through analysis of dtmf events
JP2023511104A (ja) ディープ残差ニューラルネットワークを用いたロバストなスプーフィング検出システム
CN111508527B (zh) 一种电话应答状态检测方法、装置及服务器
US20130266147A1 (en) System and method for identification of highly-variable vocalizations
Ideli et al. Visually assisted time-domain speech enhancement
US20230116052A1 (en) Array geometry agnostic multi-channel personalized speech enhancement
Huang et al. Identification of VoIP speech with multiple domain deep features
Nogales et al. A deep learning framework for audio restoration using Convolutional/Deconvolutional Deep Autoencoders
Yadav et al. PS3DT: Synthetic Speech Detection Using Patched Spectrogram Transformer
Yadav et al. Compression Robust Synthetic Speech Detection Using Patched Spectrogram Transformer
CN110782901B (zh) 一种识别网络电话语音的方法、存储介质及装置
Jahanirad et al. Blind source computer device identification from recorded VoIP calls for forensic investigation
Sahoo et al. Word extraction from speech recognition using correlation coefficients
Dat et al. Generalized Gaussian distribution Kullback-Leibler kernel for robust sound event recognition
Sokol et al. Automatic Speaker Verification on Compressed Audio
Pedersen et al. Data-Driven Non-Intrusive Speech Intelligibility Prediction Using Speech Presence Probability
Chen et al. Audio Amplitude-Level Quantification Vector for Identification of Audio Post-Processing Operation
CN116129901A (zh) 语音识别方法、装置、电子设备及可读存储介质
CN117198324A (zh) 一种基于聚类模型的鸟声识别方法、装置和***

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R150 Certificate of patent or registration of utility model

Ref document number: 6535706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250