JP2023180842A - 品質予測のためのシステム、方法、及びコンピュータ可読媒体 - Google Patents

品質予測のためのシステム、方法、及びコンピュータ可読媒体 Download PDF

Info

Publication number
JP2023180842A
JP2023180842A JP2022094472A JP2022094472A JP2023180842A JP 2023180842 A JP2023180842 A JP 2023180842A JP 2022094472 A JP2022094472 A JP 2022094472A JP 2022094472 A JP2022094472 A JP 2022094472A JP 2023180842 A JP2023180842 A JP 2023180842A
Authority
JP
Japan
Prior art keywords
endpoint
parameter
value
quality prediction
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022094472A
Other languages
English (en)
Other versions
JP7233664B1 (ja
Inventor
陳立瀚
Li-Han Chen
劉謹▲い▼
jin-wei Liu
陳義雄
Yi-Hsiung Chen
徐永吉
Yungchi Hsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
17Live Japan Inc
Original Assignee
17Live Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 17Live Japan Inc filed Critical 17Live Japan Inc
Priority to JP2022094472A priority Critical patent/JP7233664B1/ja
Priority to US17/941,721 priority patent/US20230403205A1/en
Priority to JP2023020584A priority patent/JP2023181074A/ja
Application granted granted Critical
Publication of JP7233664B1 publication Critical patent/JP7233664B1/ja
Publication of JP2023180842A publication Critical patent/JP2023180842A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0852Delays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】品質予測のためのシステム、方法及びコンピュータ可読媒体を提供する。【解決手段】方法は、第1のエンドポイントのパラメータ値を取得する工程と、第2のエンドポイントのパラメータ値を取得する工程と、当該第1のエンドポイントの当該パラメータ値及び当該第2のエンドポイントの当該パラメータ値に基づき、当該第1のエンドポイントの当該パラメータの予測を生成する工程とを含み、当該予測は、未来の一時点における当該第1のエンドポイントの当該パラメータの確率分布情報を含み、より精度の高い品質予測を行う。【選択図】図4

Description

本発明は品質予測に関し、より具体的には、サーバに対する品質予測に関する。
インターネット上でのリアルタイムのデータ共有は、日常生活にも浸透している。さまざまなプラットフォームやプロバイダーが動画のライブ配信などライブストリーミングデータのサービスを提供しており、競争も激しい。ライブストリーミングプラットフォームが普及し、より多くのユーザがアクセスするようになると、サーバを管理し、サービス品質を安定させることが重要となる。
本発明の一実施態様による方法は、1以上のコンピュータによって実行される品質予測のための方法であって、第1のエンドポイントのパラメータ値を取得する工程と、第2のエンドポイントのパラメータ値を取得する工程と、当該第1のエンドポイントの当該パラメータ値及び当該第2のエンドポイントの当該パラメータ値に基づき、当該第1のエンドポイントの当該パラメータの予測を生成する工程とを含む。当該予測は、未来の一時点における当該第1のエンドポイントの当該パラメータの確率分布情報を含む。
本発明の一実施態様によるシステムは、1以上のコンピュータプロセッサを含む品質予測のためのシステムであり、当該1以上のコンピュータプロセッサが機械可読命令を実行して、第1のエンドポイントのパラメータ値を取得する工程と、第2のエンドポイントのパラメータ値を取得する工程と、当該第1のエンドポイントの当該パラメータ値及び当該第2のエンドポイントの当該パラメータ値に基づき、当該第1のエンドポイントの当該パラメータの予測を生成する工程と、を実行する。当該予測は、未来の一時点における当該第1のエンドポイントの当該パラメータの確率分布情報を含む。
本発明の一実施態様によるコンピュータ可読媒体は、品質予測のためのプログラムを含む非一時的なコンピュータ可読媒体であって、当該プログラムが1以上のコンピュータに、第1のエンドポイントのパラメータ値を取得する工程と、第2のエンドポイントのパラメータ値を取得する工程と、当該第1のエンドポイントの当該パラメータ値及び当該第2のエンドポイントの当該パラメータ値に基づき、当該第1のエンドポイントの当該パラメータの予測を生成する工程と、を実行させる。当該予測は、未来の一時点における当該第1のエンドポイントの当該パラメータの確率分布情報を含む。
本発明の一部の実施態様に基づく通信システムの構成を示す概略図である。 本発明の一部の実施態様に基づくサーバとKubernetesクラスタの例示的なブロック図である。 本発明の一部の実施態様に基づく例示的な機械学習モデルを示す概略図である。 本発明の一部の実施態様に基づくサーバ管理方法を示す例示的なフローチャートである。 エンドポイントデータテーブル310の例である。 システムデータテーブル312の例である。 予測テーブル314に格納されたエンドポイントに対する予測結果の一例である。 閾値テーブル316の一例である。 本発明の一部の実施態様に基づく通信システム1のバックエンドシステム35の例示的なブロック図である。
サーバ管理における重要な機能の1つが、サービス品質やサーバの状態を予測することである。予測結果によって、適切な予防措置を講じ、潜在的な問題を防止または軽減することができる。従来のサービス品質予測方法には、いくつかの解決すべき課題がある。
従来、予測プロセスにおいて、サーバの異なるエンドポイントは個別に扱われている。つまり、特定のエンドポイントの状態は、その特定のエンドポイントの過去の挙動またはデータによって予測される。
従来、懸念される問題は、その問題に影響を与える可能性のある他のパラメータによって予測されることが多い。例えば、1秒あたりのクエリ数(QPS)や帯域幅などのパラメータが、遅延などのより直接的な懸念事項である問題の予測に使用される。
本発明は、異なるエンドポイント間の横断的影響を組み込むことにより、エンドポイントの状態を予測する方法およびシステムを開示する。本発明は、問題そのものの過去の挙動でその問題を予測し、より直接的で、より正確な結果を導くことができる、方法およびシステムを開示する。本発明の一部の実施態様において、懸念される問題は、エンドポイントの遅延である。
図1に、本発明の一部の実施態様に基づく通信システムの構成を示す概略図を示す。
当該通信システム1は、コンテンツを介したインタラクションを伴うライブストリーミングサービスを提供することができる。ここで言う「コンテンツ」とは、コンピュータ装置で再生可能なデジタルコンテンツを指す。つまり、当通信システム1は、ユーザがオンラインで他のユーザとのリアルタイムのインタラクションに参加することを可能にする。当該通信システム1は、複数のユーザ端末10と、バックエンドサーバ30と、ストリーミングサーバ40とを含む。当該ユーザ端末10、バックエンドサーバ30、及びストリーミングサーバ40は、ネットワーク90(例えばインターネットとしてもよい)を介して接続される。当該バックエンドサーバ30は、当該ユーザ端末及び(または)当該ストリーミングサーバ40との間のインタラクションを同期させるサーバとすることができる。一部の実施態様において、当該バックエンドサーバ30は、アプリケーション(APP)プロバイダーのサーバとしてもよい。当該ストリーミングサーバ40は、ストリーミングデータまたはビデオデータを取り扱う、または提供するためのサーバである。一部の実施態様において、当該バックエンドサーバ30と当該ストリーミングサーバ40は、独立したサーバとしてもよい。一部の実施態様において、当該バックエンドサーバ30と当該ストリーミングサーバ40は、1つのサーバに統合してもよい。一部の実施態様において、当該ユーザ端末10は、ライブストリーミングサービスのためのクライアント装置である。一部の実施態様において、当該ユーザ端末10は、視聴者、ストリーマー、アンカー、ポッドキャスター、オーディエンス、リスナーなどと呼ばれることがある。当該ユーザ端末10、バックエンドサーバ30、及びストリーミングサーバ40はそれぞれ情報処理装置の一例である。一部の実施態様において、当該ストリーミングは、ライブストリーミングまたはビデオ再生とすることができる。一部の実施態様において、ストリーミングは、オーディオストリーミング及び(または)ビデオストリーミングとすることができる。一部の実施態様において、ストリーミングは、オンラインショッピング、トークショー、タレントショー、娯楽イベント、スポーツイベント、音楽ビデオ、映画、コメディ、コンサートなどのコンテンツを含むことができる。
図9に、本発明の一部の実施態様に基づく通信システム1のバックエンドシステム35の例示的なブロック図を示す。当該バックエンドシステム35は、複数のエンドポイント(APIまたはサーバ)の遅延を監視し、特定のエンドポイントの遅延の予測結果が警告条件を満たした場合に、当該特定のエンドポイントに関する警告メッセージをオペレーターに送信する。当該バックエンドシステム35は、複数のエンドポイントEP1、EP2、EP3、...と、サーバ300と、オペレーター装置36とから構成される。各エンドポイントは、時系列遅延データを生成し、生成した当該時系列遅延データをネットワーク経由で当該サーバ300に送信する。当該サーバ300は、1つの機械学習モデル306を有する。当該モデル306は、当該複数のエンドポイントEP1、EP2、EP3、...から、生成された当該時系列遅延データを受信する。当該モデル306は、受信したデータを処理し、当該複数のエンドポイントそれぞれの遅延に対して確率密度関数を生成する。例えば、当該モデル306は、エンドポイントEP1の遅延に対する確率密度関数、エンドポイントEP2の遅延に対する確率密度関数、及びエンドポイントEP3の遅延に対する確率密度関数を生成する。当該モデル306での処理において、異なるエンドポイントからの当該遅延データは互いに関連付けられる。当該サーバ300のリスク評価ユニット308は、当該モデル306から当該複数のエンドポイントの遅延の確率密度関数を受信する。当該リスク評価ユニット308は、当該エンドポイントのそれぞれについて、各エンドポイントの予測結果または確率密度関数が警告条件を満たすか否かを判断する。特定のエンドポイントについて当該警告条件が満たされた場合、当該リスク評価ユニット308は、当該特定のエンドポイントに関する警告メッセージを生成し、ネットワークを介して当該オペレーター装置36に当該警告メッセージを送信する。当該オペレーター37は、当該オペレーター装置36上の警告メッセージを見て、その特定のエンドポイントに対して適切な処置を行う。
図2に、本発明の一部の実施態様に基づく当該サーバ300とKubernetesクラスタの例示的なブロック図を示す。
当該サーバ300は、エンドポイントモニター302と、システムモニター304と、当該機械学習モデル306と、当該リスク評価ユニット308と、エンドポイントデータテーブル310と、システムデータテーブル312と、予測テーブル314と、閾値テーブル316を含む。本実施態様において、当該サーバ300は、当該サーバ300外部にあるKubernetesクラスタ500と通信する。当該Kubernetesクラスタは、複数のポッド502を含む。
KubernetesまたはKubernetesクラスタは、ソフトウェアのデプロイメント、スケーリング、および管理を自動化するためのオープンソースのコンテナオーケストレーションシステムである。Kubernetesクラスタは、ライブストリーミングアプリケーションなど、サーバが提供するアプリケーションを実行するために割り当てられた仮想空間または仮想マシンである多様なポッドを含む。
他の実施態様において、当該サーバ300によって提供される当該ライブストリーミングプラットフォームを実行するように構成された仮想空間または仮想マシンは、当該サーバ300内に配備されてもよい。一部の実施態様において、当該サーバ300によって提供されるライブストリーミングプラットフォームを実行するように構成された仮想空間または仮想マシンは、AWS Fargate、Azure Container Instances、またはGoogle Cloud Runなどの他のサービス上に配備されてもよい。
当該エンドポイントモニター302は、当該ライブストリーミングサービスのエンドポイントの情報またはパラメータを受信するように構成される。当該情報は、エンドポイントの遅延を含んでもよい。一部の実施態様において、当該情報は当該Kubernetesクラスタ500から受信される。一部の実施態様において、エンドポイントは、当該ライブストリーミングサービスのアプリケーションプログラミングインターフェイス(API)に対応する。ライブストリーミングサービスの場合、多様なエンドポイントが存在する可能性がある。例えば、コメントエンドポイントは、チャットルーム内のコメント機能に対応してもよい。贈り物エンドポイントは、チャットルーム内の贈り物送信機能に対応してもよい。イベントエンドポイントは、ライブストリーミング番組に関連するイベントに対応してもよい。
当該システムモニター304は、当該サーバ300または当該Kubernetesクラスタ500のシステムパラメータを監視または受信するように構成される。当該パラメータは、当該ライブストリーミングサービスを実行またはサポートするために当該Kubernetesクラスタ500に割り当てられたポッドの数(またはポッド量)を含んでもよい。一部の実施態様において、当該ライブストリーミングサービス用に割り当てられたポッドは、当該ライブストリーミングサービスのエンドポイントに割り当てられた(または対応する)ポッドである。一部の実施態様において、当該エンドポイントに割り当てられたポッドが多いほど、そのエンドポイントが低遅延であることを示す。
当該機械学習モデル306は、エンドポイントの遅延など、エンドポイントの状態を予測するように構成される。当該機械学習モデル306は、当該エンドポイントの履歴データ(当該エンドポイントの過去の遅延値など)によって訓練されてもよい。当該機械学習モデル306は、当該エンドポイントに対応する過去のポッド量など、当該ポッド数の履歴データによって訓練されてもよい。一部の実施態様において、当該機械学習モデル306は、エンドポイントの時系列遅延データとポッド量の情報を入力(例えば、過去30分の遅延データとポッド量の情報)として、当該エンドポイントの遅延予測を出力として提供する。一部の実施態様において、当該予測は、未来のある時点におけるとエンドポイントの遅延の確率分布情報を含んでもよい。当該確率分布情報は、例えば、10分後など、未来のある時点におけるエンドポイントの遅延の確率密度関数または確率分布関数を含んでもよく、または、確率密度関数または確率分布関数であってもよい。一部の実施態様において、確率密度関数は、平均と分散によって表現または定義されてもよい。一部の実施態様において、確率密度関数は、正規分布に合致していてもよい。
当該リスク評価ユニット308は、エンドポイントに対するリスクの確率を計算するように構成される。例えば、当該リスク評価ユニット308は、所定の閾値(遅延値)及びエンドポイントの遅延の確率密度関数に基づいて、当該エンドポイントについて機能停止の確率を計算する。遅延の当該閾値は、当該エンドポイントが当該遅延値に到達するには高い確率で機能停止が発生し得るように決定されてもよい。
当該エンドポイントデータテーブル310は、当該エンドポイントモニター302によって監視または受信されたデータを格納するように構成される。当該データは、各エンドポイントの時系列遅延値であってもよい。
当該システムデータテーブル312は、当該システムモニター304によって監視または受信されたデータを格納するように構成される。当該データは、ポッド数またはポッド量の情報であってもよい。
当該予測テーブル314は、当該機械学習モデル306によって生成された予測結果を格納するように構成される。当該結果は、平均、分散(または標準偏差)、および分布情報(正規分布またはガウス分布など)を含んでもよい。
当該閾値テーブル316は、当該エンドポイントに対する所定の閾値を格納するように構成される。当該閾値は、遅延値であってもよい。閾値は、ライブストリーミングシステムのオペレーターが経験または実験に基づいて決定してもよい。
図3に、本発明の一部の実施態様に基づく例示的な機械学習モデルの概略図を示す。一部の実施態様において、当該機械学習モデル600は、図2の当該機械学習モデル306として適用されてもよい。当該機械学習モデル600は、オートエンコーダ602と、トランスフォーマーモデル604と、ニューラルネットワーク層606とを含む。
当該機械学習モデル600への入力は、エンドポイントの遅延データとポッド数データである。各エンドポイントの時系列遅延データは、当該オートエンコーダ602に入力される。一部の実施態様において、当該時系列遅延データは、ある期間の各エンドポイントの遅延値(時系列で表される)を含む。当該ポッド数データは、エンドポイント全体(例えば、ライブストリーミングエンドポイント全体)に対応する(またはそれに割り当てられる)合計ポッド数を含んでもよい。当該ポッド数データは、異なるエンドポイントグループに対応する(または割り当てられた)ポッド数を含んでもよい。エンドポイントグループは、同じサービスまたは同じ機能に対応する複数のエンドポイントを含んでもよい。エンドポイントグループは、一部の実施態様において、サービスグループと呼ばれてもよい。
当該オートエンコーダ602は、当該エンドポイントの遅延データから、トレンド部分、季節性部分(または周期性部分)、ノイズ部分を抽出するように構成される。本実施態様において、当該遅延データの当該トレンド部分と当該季節性部分は、当該機械学習モデル600の1つの出力である。一部の実施態様において、当該オートエンコーダ602は、当該遅延データからノイズデータを除去し、「ノイズが除去された」当該遅延データを出力として提供するように構成されている。当該遅延データから抽出されたトレンド部分、季節性部分、ノイズ部分は、当該トランスフォーマーモデル604への入力として取り込まれる。一部の実施態様において、当該オートエンコーダ602は変分オートエンコーダである。一部の実施態様において、当該遅延データの当該ノイズ部分は、当該遅延データの異常部分または外れ値部分であってもよい。一部の実施態様において、当該オートエンコーダ602は、各エンドポイントの当該遅延データから潜在空間にある情報を抽出するように構成される。一部の実施態様において、当該ノイズ部分は、(元の遅延データ-(トレンド部分+季節性部分))と定義される。
当該トランスフォーマーモデル604は、異なるエンドポイントの当該遅延データ間の時間的関係または時間的相関を抽出するように構成される。当該オートエンコーダ602によるノイズ分離/抽出により、当該トランスフォーマーモデル604は、異なるエンドポイントの当該遅延データ間の時間的関係をより高い精度で抽出することができる。当該オートエンコーダ602によるノイズ分離/抽出により、当該トランスフォーマーモデル604は、すべてのエンドポイントからのノイズ除去項(de-noised terms)及びノイズ-信号項(noise-signal terms)間の関係を学習することができる。一部の実施態様において、当該トランスフォーマーモデル604は、ディープラーニングアルゴリズムを含む。一部の実施態様において、当該トランスフォーマーモデル604の出力はシーケンスを含み、当該シーケンス内の要素の数は、エンドポイントの数と同じである。
当該トランスフォーマーモデル604の出力と当該ポッド数データが、連結計算に入力される。当該連結計算の出力が、ニューラルネットワーク層606に入力される。当該ニューラルネットワーク層606は、当該エンドポイントの(または各エンドポイントについての)遅延の確率分布情報を提供するように構成される。一部の実施態様において、各エンドポイントの遅延の当該確率分布情報は、各エンドポイントの遅延の確率密度関数(PDF)を含む。一部の実施態様において、当該ニューラルネットワーク層606は、全結合ニューラルネットワークである。
図3に示すように、当該機械学習モデル600の学習フェーズでは、損失L1と損失L2という2つの損失関数が用いられる。
損失L1は、当該オートエンコーダ602の入力である、エンドポイントの遅延データを正解データ(ground truth data)とする。損失L1は、遅延データのトレンド部分と季節性部分を入力として取り込む。損失L1は、「遅延データ」と「遅延データのトレンドデータおよび季節性データ」の差分を計算する。したがって、損失L1は、当該オートエンコーダ602から提供される遅延データのノイズ項(noise term)に相当する。損失L1は、当該機械学習モデル600(または当該オートエンコーダ602)に、当該オートエンコーダ602が生成するノイズ項が最小になるように自己調整するよう学習させるために構成される。損失L1は、当該機械学習モデル600(または当該オートエンコーダ602)に、当該オートエンコーダ602が生成する当該遅延データのトレンド部分と季節性部分が最大になるように自己調整するよう学習させるために構成される。したがって、当該オートエンコーダ602の出力(当該トランスフォーマーモデル604の入力)は、ノイズによるバイアスなく、遅延データの本質(あるいは真の性質)に近づく(あるいは表す)ことができる。それにより、当該トランスフォーマーモデル604は、異なるエンドポイント間により正確な時間的関係を提供することができる。
損失L2は、エンドポイントの後続データ(当該オートエンコーダ602に入力された当該遅延データの後続の実際の遅延データ)を正解データ(ground truth data)とする。損失L2は、遅延の確率密度関数を入力として取り込む。損失L2は、当該機械学習モデル600に、各エンドポイントの実際の遅延値に対応する確率密度関数が最大となるように自己調整(平均や分散の調整など)するよう学習させるために構成される。本実施態様においては、混合密度ネットワーク(MDN)を利用し、確率密度関数のマイナス対数計算を取り入れることで、最大化処理を最小化処理に変換している。
学習フェーズでは、損失L1の結果と損失L2の結果を合計し、機械学習モデル600の自己学習またはパラメータ調整のためのフィードバック(またはバックプロパゲーション)として機械学習モデル600に入力する。ここで和算を利用する(つまり、損失L1と損失L2に同じ重みを与える)ことで、機械学習モデル600に、より大きな関心度で損失を最小化するように自己調整する学習をできるだけ早く強制させる。通常、オートエンコーダのノイズ項はMDN損失項よりはるかに大きいため(例えば、ライブストリーミングのシナリオで利用されるエンドポイントの場合)、機械学習モデル600(またはオートエンコーダ602)は、できるだけ早く遅延データのノイズを除去することを学習する。したがって、トランスフォーマーモデル604は、異なるエンドポイントの遅延間の時間的関係を迅速かつ正確に提供することができる。
一部の実施態様において、上述の計算(損失計算など)は、当該サーバ300内の計算ユニットにより実行されてもよい。
一部の実施態様において、当該機械学習モデルにグラフ畳み込みネットワーク(GCN)モデルが組み込まれてもよい。例えば、当該オートエンコーダの出力は当該GCNモデルに入力されてもよく、当該GCNモデルの出力は当該トランスフォーマーモデルに入力されてもよい。当該GCNモデルは、異なるエンドポイントの遅延データ間の空間的関係または空間的相関を学習するように構成される。例えば、当該GCNモデルを用い、当該機械学習モデルは、贈り物apiの遅延とコメントapiの遅延間の相関を検出することができる。これにより、予測の速度や精度をさらに向上する可能性がある。
図4に、本発明の一部の実施態様に基づくサーバ管理方法を示す例示的なフローチャートを示す。当該サーバは、例えば、図2に示す当該サーバ300であってもよい。
工程S400において、当該サーバ300が、各エンドポイントの遅延データまたは遅延値を取得する。この処理は、当該エンドポイントモニター302によって実行されてもよい。当該エンドポイントは、ライブストリーミングサービスに対応してもよい。
工程S402において、当該サーバ300が当該エンドポイントに対応するポッド数データ(またはポッド量情報)を取得する。この処理は、当該システムモニター304によって実行されてもよい。
工程S404において、当該遅延データと当該ポッド数データが、当該機械学習モデル306に入力される。この処理は、当該サーバ300内のコントローラによって実行されてもよい。
工程S406において、当該機械学習モデル306が各エンドポイントについて遅延の予測を生成する。当該予測は、未来のある時点における各エンドポイントの遅延の確率分布情報(または各エンドポイントの遅延の確率密度関数)を含んでもよい。
工程S408において、各エンドポイントに対して遅延閾値が決定される。当該閾値は、オペレーターが経験や実験に基づいて決定してもよい。当該閾値は、各エンドポイントの遅延値と機能停止の過去の相関データに基づき、人工知能または別の機械学習モデルによって決定されてもよい。
工程S410において、各エンドポイントの機能停止確率は、当該閾値と遅延の確率分布情報に基づいて計算される。この処理は、当該リスク評価ユニット306によって実行されてもよい。工程S410の結果は、特定のエンドポイントの負担/負荷を軽減するための対応策など、その後のサーバ管理手順に利用されてもよい。
図5に、エンドポイントデータテーブル310の例を示す。
この例において、エンドポイントEP1は時系列遅延値シーケンス[60ms、150ms、400ms、…]を有し、エンドポイントEP2は時系列遅延値シーケンス[1000ms、1300ms、780ms、…]を有することが分かる。
図6に、システムデータテーブル312の例を示す。
この例において、エンドポイントEP1とEP2はサービスグループG1に属し、8のポッド数が割り当てられている、または8のポッド数に対応する。エンドポイントEP3はサービスグループG2に属し、6のポッド数が割り当てられている、または6のポッド数に対応する。エンドポイントEP4、EP5、EP6はサービスグループG3に属し、10のポッド数が割り当てられている、または10のポッド数に対応する。
図7に、予測テーブル314に格納されたエンドポイントに対する予測結果の一例を示す。
この例において、予測結果には、示された平均値(μ)と標準偏差(σ)を有する確率密度関数が含まれる。
図8に、閾値テーブル316の一例を示す。
この例において、エンドポイントEP1は遅延閾値700mを有するように設定され、エンドポイントEP2は遅延閾値1500msを有するように設定される。
本発明は、機械学習モデルで異なるエンドポイント間の横断的影響を考慮することにより、エンドポイントに対する品質予測のための改良された方法およびシステムを開示する。本発明は、懸念される問題そのものの過去の挙動でその問題を予測し、より直接的で、より正確な結果を導くことができる、方法およびシステムを開示する。本発明の一部の実施態様において、懸念される問題は、エンドポイントの遅延である。別の実施態様において、懸念される問題は、ライブストリーミングプラットフォームの他のパラメータまたは指標であってもよい。
一部の実施態様において、ユーザーエクスペリエンスに対してより敏感なエンドポイントは、機械学習モデルにおいてより高い重みを付与されてもよい。例えば、贈り物送信及び/または金銭預け入れのエンドポイントは、機械学習モデルにおいてより高い重みを付与されてもよい。それにより、ユーザーエクスペリエンスの観点から、より実用的な予測結果を導き出すことができる。
一部の実施態様において、当該機械学習モデルにおける当該オートエンコーダは、ディープ階層型変分オートエンコーダ(NVAE)であってもよい。NVAE及びMDNは、いずれも固有のベイズ性を有し、予測精度をさらに向上させることができる。
本発明で説明した処理及び手順は、明示的に説明したものに加えて、ソフトウェア、ハードウェア、またはそれらの任意の組み合わせにより実現することができる。例えば、本明細書で説明した処理および手順は、その処理および手順に対応するロジックを集積回路、揮発性メモリ、不揮発性メモリ、非一時的なコンピュータ可読媒体、磁気ディスクなどの媒体に実装することにより実現することができる。さらに、本明細書に記載された処理および手順は、その処理および手順に対応するコンピュータプログラムとして実現することができ、各種のコンピュータにより実行することができる。
さらに、上記実施態様で説明したシステムまたは方法は、固体記憶装置、光ディスク記憶装置、磁気ディスク記憶装置などの非一時的なコンピュータ可読媒体に格納されたプログラムに統合されてもよい。あるいは、プログラムは、インターネットを介してサーバからダウンロードされ、プロセッサにより実行されるものとしてもよい。
以上、本発明の技術的内容及び特徴を説明したが、本発明の属する技術分野において通常の知識を有する者であれば、本発明の教示及び開示から逸脱することなく、なお多くの変形及び修正を行うことができる。したがって、本発明の範囲は、既に開示された実施態様に限定されず、本発明から逸脱しない別の変形や修正を含み、特許請求の範囲に含まれる範囲である。
1 通信システム
10 ユーザ端末
30 バックエンドサーバ
40 ストリーミングサーバ
90 ネットワーク
300 サーバ
302 エンドポイントモニター
304 システムモニター
306 機械学習モデル
308 リスク評価ユニット
310 エンドポイントデータテーブル
312 システムデータテーブル
314 予測テーブル
316 閾値テーブル
500 Kubernetesクラスタ
502 ポッド
600 機械学習モデル
602 オートエンコーダ
604 トランスフォーマーモデル
606 ニューラルネットワーク層
L1、L2 損失
S400、S402、S404、S406、S408、S410 工程
EP1、EP2、EP3、EP4、EP5、EP6 エンドポイント
G1、G2、G3 サービスグループ

Claims (11)

  1. 品質予測方法であって、
    第1のエンドポイントのパラメータの値を取得する工程と、
    第2のエンドポイントのパラメータの値を取得する工程と、
    前記第1のエンドポイントの前記パラメータの前記値と、前記第2のエンドポイントの前記パラメータの前記値に基づき、前記第1のエンドポイントの前記パラメータの予測を生成する工程と、を含み、
    前記予測が、未来の一時点における前記第1のエンドポイントの前記パラメータの確率分布情報を含む、ことを特徴とする、品質予測方法。
  2. さらに、エンドポイントのグループに対応する仮想空間量を取得する工程を含み、
    前記仮想空間量に基づいて前記第1のエンドポイントの前記パラメータの前記予測が生成され、前記第1のエンドポイントと前記第2のエンドポイントが前記エンドポイントのグループに含められる、ことを特徴とする、請求項1に記載の品質予測方法。
  3. 前記第1のエンドポイントの前記パラメータと前記第2のエンドポイントの前記パラメータが遅延である、ことを特徴とする、請求項1に記載の品質予測方法。
  4. 前記仮想空間量が、前記サーバ外部で割り当てられた前記エンドポイントのグループに対応するKubernetesポッドの量である、ことを特徴とする、請求項2に記載の品質予測方法。
  5. さらに、
    前記第1のエンドポイントの前記パラメータに対して閾値を決定する工程と、
    前記閾値と前記第1のエンドポイントの前記パラメータの確率密度関数に基づいて前記第1のエンドポイントについて機能停止の確率を計算する工程と、を含み、
    前記確率密度関数が、前記確率分布情報に含まれる、ことを特徴とする、請求項1に記載の品質予測方法。
  6. さらに、前記第1のエンドポイントの前記パラメータの前記値、前記第2のエンドポイントの前記パラメータの前記値、及び前記仮想空間量を、前記第1のエンドポイントの前記パラメータの前記予測を生成するように構成された機械学習モデルに入力する工程を含み、
    前記機械学習モデルが、前記第1のエンドポイントの前記パラメータの過去の値、前記第2のエンドポイントの前記パラメータの過去の値、及び前記仮想空間量の過去の値で訓練された、ことを特徴とする、請求項2に記載の品質予測方法。
  7. 前記機械学習モデルが、前記第1のエンドポイントの前記パラメータと前記第2のエンドポイントの前記パラメータ間の時間的関係を抽出するように構成されたトランスフォーマーモデルを含む、ことを特徴とする、請求項6に記載の品質予測方法。
  8. 前記機械学習モデルが、前記第1のエンドポイントの前記パラメータの前記値と、前記第2のエンドポイントの前記パラメータの前記値から、ノイズデータ、トレンドデータ、季節性データを抽出するように構成されたオートエンコーダを含み、前記オートエンコーダの出力が、前記トランスフォーマーモデルの入力として取り込まれる、ことを特徴とする、請求項7に記載の品質予測方法。
  9. 前記機械学習モデルが、前記第1のエンドポイントの前記パラメータと前記第2のエンドポイントの前記パラメータ間の空間的関係を抽出するように構成されたグラフ畳み込みネットワークモデルを含む、ことを特徴とする、請求項6に記載の品質予測方法。
  10. 品質予測のためのシステムであって、1以上のプロセッサを備え、
    前記1以上のプロセッサが機械可読命令を実行して、
    第1のエンドポイントのパラメータの値を取得する工程と、
    第2のエンドポイントのパラメータの値を取得する工程と、
    前記第1のエンドポイントの前記パラメータの前記値と、前記第2のエンドポイントの前記パラメータの前記値に基づき、前記第1のエンドポイントの前記パラメータの予測を生成する工程と、を実行し、
    前記予測が、未来の一時点における前記第1のエンドポイントの前記パラメータの確率分布情報を含む、ことを特徴とする、品質予測のためのシステム。
  11. 品質予測のためのプログラムを含む非一時的なコンピュータ可読媒体であって、
    前記プログラムが、1以上のコンピュータに、
    第1のエンドポイントのパラメータの値を取得する工程と、
    第2のエンドポイントのパラメータの値を取得する工程と、
    前記第1のエンドポイントの前記パラメータの前記値と、前記第2のエンドポイントの前記パラメータの前記値に基づき、前記第1のエンドポイントの前記パラメータの予測を生成する工程と、を実行させ、
    前記予測が、未来の一時点における前記第1のエンドポイントの前記パラメータの確率分布情報を含む、ことを特徴とする、品質予測のためのプログラムを含む非一時的なコンピュータ可読媒体。
JP2022094472A 2022-06-10 2022-06-10 品質予測のためのシステム、方法、及びコンピュータ可読媒体 Active JP7233664B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022094472A JP7233664B1 (ja) 2022-06-10 2022-06-10 品質予測のためのシステム、方法、及びコンピュータ可読媒体
US17/941,721 US20230403205A1 (en) 2022-06-10 2022-09-09 System, method and computer-readable medium for quality prediction
JP2023020584A JP2023181074A (ja) 2022-06-10 2023-02-14 品質予測のためのシステム、方法、及びコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022094472A JP7233664B1 (ja) 2022-06-10 2022-06-10 品質予測のためのシステム、方法、及びコンピュータ可読媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023020584A Division JP2023181074A (ja) 2022-06-10 2023-02-14 品質予測のためのシステム、方法、及びコンピュータ可読媒体

Publications (2)

Publication Number Publication Date
JP7233664B1 JP7233664B1 (ja) 2023-03-07
JP2023180842A true JP2023180842A (ja) 2023-12-21

Family

ID=85460134

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022094472A Active JP7233664B1 (ja) 2022-06-10 2022-06-10 品質予測のためのシステム、方法、及びコンピュータ可読媒体
JP2023020584A Pending JP2023181074A (ja) 2022-06-10 2023-02-14 品質予測のためのシステム、方法、及びコンピュータ可読媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023020584A Pending JP2023181074A (ja) 2022-06-10 2023-02-14 品質予測のためのシステム、方法、及びコンピュータ可読媒体

Country Status (2)

Country Link
US (1) US20230403205A1 (ja)
JP (2) JP7233664B1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120202538A1 (en) * 2011-02-09 2012-08-09 Nokia Corporation Forecasting of dynamic environmental parameters to optimize operation of a wireless communication system
WO2018168601A1 (ja) * 2017-03-16 2018-09-20 日本電気株式会社 遅延予測装置、遅延予測システム、遅延予測方法および記録媒体
US20190319868A1 (en) * 2019-06-25 2019-10-17 Intel Corporation Link performance prediction technologies
WO2020217458A1 (ja) * 2019-04-26 2020-10-29 日本電信電話株式会社 通信システム及び端末
US20210014301A1 (en) * 2020-09-25 2021-01-14 Intel Corporation Methods and apparatus to select a location of execution of a computation
WO2022044121A1 (ja) * 2020-08-25 2022-03-03 日本電信電話株式会社 リソース量推定装置、リソース量推定方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120202538A1 (en) * 2011-02-09 2012-08-09 Nokia Corporation Forecasting of dynamic environmental parameters to optimize operation of a wireless communication system
WO2018168601A1 (ja) * 2017-03-16 2018-09-20 日本電気株式会社 遅延予測装置、遅延予測システム、遅延予測方法および記録媒体
WO2020217458A1 (ja) * 2019-04-26 2020-10-29 日本電信電話株式会社 通信システム及び端末
US20190319868A1 (en) * 2019-06-25 2019-10-17 Intel Corporation Link performance prediction technologies
WO2022044121A1 (ja) * 2020-08-25 2022-03-03 日本電信電話株式会社 リソース量推定装置、リソース量推定方法及びプログラム
US20210014301A1 (en) * 2020-09-25 2021-01-14 Intel Corporation Methods and apparatus to select a location of execution of a computation

Also Published As

Publication number Publication date
US20230403205A1 (en) 2023-12-14
JP7233664B1 (ja) 2023-03-07
JP2023181074A (ja) 2023-12-21

Similar Documents

Publication Publication Date Title
US11960509B2 (en) Feedback loop content recommendation
JP6457447B2 (ja) データセンターのネットワークトラフィックスケジューリング方法及び装置
CN107911722B (zh) 一种内容分发网络调度方法、装置、电子设备及计算机可读存储介质
US20180241843A1 (en) Adjusting cloud-based execution environment by neural network
CN108521856A (zh) 内容分发网络中的调度方法和设备
US20140149424A1 (en) Time weighted content recommendation
US20140149425A1 (en) View count weighted content recommendation
RU2763530C1 (ru) Клиент, сервер и система клиент-сервер, адаптированные для генерации персонализированных рекомендаций
US20180048921A1 (en) Real-time playback diagnostics
US20140149326A1 (en) Post-processed content recommendation
Chen et al. Edge-assisted short video sharing with guaranteed quality-of-experience
Zhang et al. Livesmart: A qos-guaranteed cost-minimum framework of viewer scheduling for crowdsourced live streaming
US8725868B2 (en) Interactive service management
Liu et al. A flexible trust model for distributed service infrastructures
JP2018084986A (ja) サーバ装置、プログラム、および、通信システム
Begen et al. Adaptive streaming of content-aware-encoded videos in dash. js
JP7233664B1 (ja) 品質予測のためのシステム、方法、及びコンピュータ可読媒体
US20140074858A1 (en) Percent-consumed weighted content recommendation
US20230353653A1 (en) System, method and computer-readable medium for notification
Karim et al. End-to-end performance prediction for selecting cloud services solutions
CN114186050A (zh) 资源推荐方法、装置、电子设备及存储介质
US11288582B2 (en) Systems and methods for providing media content recommendations
Braun et al. Mobile peer-to-peer assisted coded streaming
CN111475772A (zh) 一种容量评估方法及装置
Karolewicz et al. Cloud-based adaptive video streaming: Content storage vs. transcoding optimization methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220701

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230214

R150 Certificate of patent or registration of utility model

Ref document number: 7233664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531