JP6214547B2 - ウェブページのレンダリング時間の測定 - Google Patents

ウェブページのレンダリング時間の測定 Download PDF

Info

Publication number
JP6214547B2
JP6214547B2 JP2014542483A JP2014542483A JP6214547B2 JP 6214547 B2 JP6214547 B2 JP 6214547B2 JP 2014542483 A JP2014542483 A JP 2014542483A JP 2014542483 A JP2014542483 A JP 2014542483A JP 6214547 B2 JP6214547 B2 JP 6214547B2
Authority
JP
Japan
Prior art keywords
web page
video data
rendering
time
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014542483A
Other languages
English (en)
Other versions
JP2015503152A5 (ja
JP2015503152A (ja
Inventor
シュムリー,メア
ローゼンバウム,オメア
ベルシャンスキー,グレゴリー
ペレド,ユヴァル
デイヴィッド フィールズ,エム.
デイヴィッド フィールズ,エム.
エルガン,センク
ディー. デッカー,マイケル
ディー. デッカー,マイケル
ロドリゲス エルナンデス,アーロン
ロドリゲス エルナンデス,アーロン
ピー. コトセナス,マシュー
ピー. コトセナス,マシュー
ジェイ. ウェバー,ジェイソン
ジェイ. ウェバー,ジェイソン
ミン チョウ,イ
ミン チョウ,イ
チン チョン,キーラン
チン チョン,キーラン
ローレンス フォード,ケリー
ローレンス フォード,ケリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2015503152A publication Critical patent/JP2015503152A/ja
Publication of JP2015503152A5 publication Critical patent/JP2015503152A5/ja
Application granted granted Critical
Publication of JP6214547B2 publication Critical patent/JP6214547B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ウェブページのレンダリング時間を測定することに関する。
エンドユーザによって認識されるような、ウェブページのロード時間は、ユーザの視聴時間にとって主な駆動要因となることが示されている。そして、これが、広告からのユーザロイヤリティ及びウェブサイトの収入の所望のインジケータとなることが分かっている。しかしながら、ユーザにより認識されるウェブページのロード時間を測定することは、複雑なタスクであることが分かっている。ウェブページのロード時間を測定する技術は存在するが、そのような技術は、ネットワークトラフィックのようなネットワークアクティビティに焦点をあてるか、又はウェブページのロードに遅延を与えるか悪化させる可能性のあるブラウザプラグインを用いる傾向がある。しかしながら、これらの技術は、ロード時間の概算しか提供せず、画面上にレンダリングされている実際のコンテンツを測定することはしない。当然、この画面上にレンダリングされている実際のコンテンツが、ページのロード中にユーザが画面上で見るものである。
この「発明の概要」の記載は、以下の「発明を実施するための形態」において更に説明される概念の選択を簡略化した形で紹介するのに提供される。この「発明の概要」の記載は、特許請求に係る主題の重要な特徴及び本質的特徴を特定するようには意図されておらず、また、特許請求される主題の範囲を確定する際の一助として用いられるようにも意図されていない。
様々な実施形態により、ブラウザ独立のウェブページのレンダリング時間を測定するための手法を提供する。少なくとも一部の実施形態において、ウェブページがレンダリングされると、該ウェブページのビデオデータをキャプチャして分析し、ウェブページが完全にレンダリングされたと見込まれる時を突き止める。少なくとも一部の実施形態において、キャプチャされたビデオデータに対してイメージ処理を実行して、観測されるピクセルの経時的な変化から、ウェブページがレンダリングされたと見込まれる時を突き止めることができる。
少なくとも一部の実施形態において、説明される分析技術を通じて、ページ全体に関連付けられるレンダリング時間を突き止めることができる。あるいはまた、説明される分析技術を通じて、特定のページのサブ領域に関連付けられるレンダリング時間を突き止めることもできる。一部の例において、関心のない領域をマスクするか又は無視することができる。
詳細な説明は添付の図面を参照しながら記述される。図面において、参照番号の左端の桁は、その参照番号が初めに現れる図面を識別する。説明内の異なる例における同じ参照番号の使用は、類似又は同一のアイテムであることを示すことがある。
1つ又は複数の実施形態による例示的な実装における環境を示す図である。 図1に示される例示的な実装をより詳細に示したシステムの図である。 1つ又は複数の実施形態によるウェブページのレンダリングを示す図である。 1つ又は複数の実施形態による関心領域を示す図である。 1つ又は複数の実施形態による経時的な「ピクセルの変化」のグラフを示す図である。 1つ又は複数の実施形態による経時的な「ピクセルの変化」のグラフを示す図である。 1つ又は複数の実施形態による経時的な「ピクセルの変化」のグラフを示す図である。 1つ又は複数の実施形態による方法のステップを示すフロー図である。 1つ又は複数の実施形態による方法のステップを示すフロー図である。 本明細書で説明される様々な実施形態を実装するのに用いることができる例示的なコンピューティングデバイスを示す図である。
<概要>
様々な実施形態により、ブラウザ独立のウェブページのレンダリング時間を測定するための手法を提供する。少なくとも一部の実施形態において、ウェブページがレンダリングされると、該ウェブページのビデオデータをキャプチャして分析し、ウェブページが完全にレンダリングされたと見込まれる時を突き止める。少なくとも一部の実施形態において、キャプチャされたビデオデータに対してイメージ処理を実行して、観測されたピクセルの経時的な変化から、ウェブページがレンダリングされたと見込まれる時を突き止めることができる。
少なくとも一部の実施形態において、説明される分析技術を通じて、ページ全体に関連付けられるレンダリング時間を突き止めることができる。あるいはまた、説明される分析技術を通じて、特定のページのサブ領域に関連付けられるレンダリング時間を突き止めることもできる。一部の例において、関心のない領域をマスクするか又は無視することができる。
様々な実施形態が、異なるウェブブラウザ間において、レンダリング時間を比較して分析することを可能にする。さらに、異なるウェブサイト間のレンダリング時間を、ユーザがそれらを比較したであろう手法と同様の手法により、分析して比較することができる。この場合において、時間ベースのレンダリングメトリックのような定量的データを開発して、ウェブページのロード時間が考慮される限りにおいて、ユーザの視覚的経験を定量化することができる。
以下の議論では、初めに、本明細書で説明される技術を用いるように動作可能な例示的環境を説明する。次いで、この例示的な環境並びに他の環境においても用いることができる様々な実施形態の例を説明する。したがって、例示的な環境は、説明される実施形態を実行するものに限定されず、また説明される実施形態は、例示的な環境を実装することに限定されない。
<例示的な動作環境>
図1は、本明細書において説明されるアニメーション技術を用いるように動作可能な例示的実装の環境100を示す図である。図示される環境100は、様々な方法で構成され得るコンピューティングデバイス102の例を含む。例えばコンピューティングデバイス102は、図2に関連して更に説明されるような、従来のコンピュータ(例えばデスクトップパーソナルコンピュータ、ラップトップコンピュータ等)、モバイルステーション、エンターテイメント機器、テレビに通信可能に結合されるセットトップボックス、ワイヤレスホン、ネットブック、ゲームコンソール及びハンドヘルドデバイス等として構成されてよい。したがって、コンピューティングデバイス102は、実質的なメモリとプロセッサリソースを用いるフルリソースデバイス(例えばパーソナルコンピュータやゲームコンソール)から、限られたメモリ及び/又は処理リソースを用いる低リソースデバイス(例えば従来のセットトップボックスやハンドヘルドゲームコンソール)にまで及ぶ可能性がある。コンピューティングデバイス102は、該コンピューティングデバイス102に以下で説明される1つ又は複数の動作を実行させるソフトウェアも含む。
コンピューティングデバイス102は、コンポーネントの中でも特に、ウェブブラウザ104、ジェスチャモジュール105、ビデオキャプチャコンポーネント106及びイメージ分析コンポーネントを含む。
ウェブブラウザ104は、ウェブページを取り出して、コンピューティングデバイス102上でディスプレイデバイス108によりレンダリングできるようにする機能を表す。任意の適切なタイプのウェブブラウザを用いてよく、そのようなウェブブラウザの例は、本明細書の出願人又は他のものから取得可能である。
ジェスチャモジュール105は、1又は複数の指によって実行されたジェスチャを認識し、該ジェスチャに対応する動作を実行させる機能を表す。ジェスチャは、モジュール105によって様々な異なる方法によって認識され得る。例えばジェスチャモジュール105は、タッチスクリーン機能を使用するコンピューティングデバイス102のディスプレイデバイス108に近接すると、ユーザの手の指などのタッチ入力を認識するように構成される。モジュール105を用いて、単一の指のジェスチャとベゼルジェスチャ、複数の指/同じ手のジェスチャとベゼルジェスチャ、並びに/あるいは複数の指/異なる手のジェスチャとベゼルジェスチャを認識することができる。
コンピューティングデバイス102は、(例えばユーザの手の1又は複数の指によって提供される)タッチ入力と(例えばスタイラス116によって提供される)スタイラス入力との間を検出して区別するようにも構成される。この区別を、ユーザの手の指によって接触されたディスプレイデバイス108の量と、スタイラス116によって接触されたディスプレイデバイス108の量とを対比して検出することによる方法など、様々な方法で行うことができる。
したがって、ジェスチャモジュール105は、スタイラスとタッチ入力との間、並びに異なるタッチ入力の間の区分の認識及び利用を通じて様々な異なるジェスチャ技術をサポートすることができる。
ビデオキャプチャコンポーネント106は、ウェブページがウェブブラウザ104によってレンダリングされるときに、ウェブページに関連付けられるビデオデータをキャプチャできるようにする機能を表す。ディスプレイ画面全体に関連付けられたビデオデータをキャプチャすることができる。あるいはまた、ウェブページの全体に満たない部分で構成されるウェブページの一部分に関連付けられるビデオデータを、キャプチャして分析することができる。図示及び説明される実施形態では、ビデオキャプチャデバイス106がウェブページのレンダリングに関連付けられた画面データをキャプチャすると、これを更なる処理のためにデジタルビデオファイルに保存することができる。加えて、少なくとも一部の実施形態では、ビデオキャプチャコンポーネント106は、イメージ分析を容易にするため、何らかの方法でビデオデータをマークできるようにするように構成される。この例は以下で提供される。
イメージ分析コンポーネント107は、ビデオキャプチャコンポーネント106によってキャプチャされたビデオデータを分析し、ウェブページの少なくとも一部について時間ベースのメトリックを計算できるようにする機能を表す。1つ又は複数の実施形態において、イメージ分析モジュール107は、ビデオファイルを読み込み、該ビデオファイルの視覚的特性を分析して時間ベースのレンダリングメトリックを計算するように構成される。少なくとも一部の実施形態において、分析は、下記において明らかになるようにフレームごとに行われる。さらに、少なくとも一部の実施形態において、イメージ分析コンポーネント107は、該イメージ分析コンポーネント107がキャプチャしたビデオデータに対してピクセルごとに分析を実行するように構成される。
ビデオキャプチャコンポーネント106及びイメージ分析コンポーネント107は、コンピューティングデバイス102の一部を構成するように示されているが、これらのコンポーネントを、コンピューティングデバイス102とは独立のスタンドアロンのコンポーネントとして実装することができる。
ビデオキャプチャコンポーネント106及びイメージ分析コンポーネント107は、共同で、ウェブブラウザによってレンダリングされたウェブページに関連付けられたレンダリング時間、すなわち、時間ベースのレンダリングメトリックを、ブラウザ独立の手法で測定できるようにする。ウェブページがウェブブラウザ104によってレンダリングされると、ウェブページのビデオデータがビデオキャプチャコンポーネント106によってキャプチャされる。次いで、このビデオデータを、イメージ分析コンポーネント107によって分析して、ウェブページが完全にレンダリングされたと見込まれる時間を突き止めることができる。少なくとも一部の実施形態において、イメージ処理を、キャプチャされたビデオデータに対して実行して、経時的に観測されるピクセルの変化から、ウェブページがレンダリングされたと見込まれる時を突き止めることができる。
少なくとも一部の実施形態において、説明される分析技術を通じて、ウェブページ全体に関連付けられたレンダリング時間を突き止めることができる。あるいはまた、説明される分析技術を通じて、特定のページのサブ領域に関連付けられたレンダリング時間を突き止めることができる。一部の例では、関心のない領域をマスクするか無視することができる。
図2は、複数のデバイスが中央のコンピューティングデバイスを通じて相互に接続される環境において実装されている、ウェブブラウザ104、ジェスチャモジュール105、ビデオキャプチャコンポーネント106及びイメージ分析コンポーネント107を示す例示的システム200を図示する。中央のコンピューティングデバイスは、これらの複数のデバイスに対してローカルであってよく、またこれらの複数のデバイスからリモートに配置されてもよい。一実施形態において、中央のコンピューティングデバイスは、複数のデバイスとネットワーク又はインターネット又は他の手段を通じて接続される、1つ又は複数のサーバコンピュータを備える「クラウド」のサーバファームである。
一実施形態において、この相互接続アーキテクチャは、複数のデバイスにわたって機能を配信し、共通でシームレスな経験をその複数のデバイスのユーザに提供できるようにする。複数のデバイスはそれぞれ、異なる物理的な要件及び能力を有することができ、中央コンピューティングデバイスは、そのデバイスに、該デバイスに対して調整されるが依然として全てのデバイスに対して共通の経験を配信できるようにするプラットフォームを使用する。一実施形態において、ターゲットデバイスの「クラス」を作成し、経験をデバイスの汎用クラスに対して調整する。デバイスのクラスを、デバイスの物理的特徴又は他の共通の特徴によって定義することができる。例えば上述のように、コンピューティングデバイス102は、モバイル202、コンピュータ204及びテレビ206が使用するように、様々な異なる方法で構成され得る。これらの構成の各々は、一般的に対応する画面サイズを有し、したがってコンピューティングデバイス102は、この例示的システム200内のこれらのデバイスクラスのうちの1つとして構成されてよい。例えばコンピューティングデバイス102は、モバイル電話、音楽プレイヤ及びゲームデバイス等を含むモバイル202クラスのデバイスと想定してもよい。コンピューティングデバイス102は、パーソナルコンピュータ、ラップトップコンピュータ及びネットブック等を含むコンピュータ204クラスのデバイスと想定してもよい。テレビジョン206の構成は、例えばテレビジョン、セットトップボックス及びゲームコンソール等の簡単な環境のディスプレイを有するデバイス構成を含む。したがって、本明細書で説明される技術は、コンピューティングデバイス102のこれらの様々な構成によってサポートされることが可能であり、以下のセクションにおいて説明される特定の例に限定されない。
クラウド208は、ウェブサービス212のプラットフォーム210を含むように図示されている。プラットフォーム210は、クラウド208のハードウェア(例えばサーバ)及びソフトウェアリソースの基礎となる機能を抽象化し、したがって「クラウドオペレーティングシステム」として動作してよい。例えばプラットフォーム210は、コンピューティングデバイス102を他のコンピューティングデバイスと接続するリソースを抽象化してよい。プラットフォーム210は、リソースのスケーリングを抽象化して、対応するスケールレベルを、プラットフォーム210を介して実装されるウェブサービス212の直面した需要に提供するように機能することできる。サーバファーム内のサーバの負荷バランス、悪意あるパーティ(例えばスパム、ウィルス及び他のマルウェア)に対する保護等の様々な他の例も考慮される。
したがって、クラウド208は、インターネット又は他のネットワークを介してコンピューティングデバイス102に利用可能にされるソフトウェア及びハードウェアリソースに関するストラテジの一部として含まれる。例えばイメージ分析コンポーネント107は、コンピューティングデバイス102の一部として実装されてもよく、ウェブサービス212をサポートするプラットフォーム210を介して実装されてもよい。
ジェスチャモジュールによってサポートされるジェスチャ技術は、モバイル構成202のタッチスクリーン機能、コンピュータ204構成のトラックパッド機能によって検出されてよく、カメラによって、特定の入力デバイスとの接触を要しないナチュラルユーザインタフェース(NUI)のサポートの一部として検出されてもよい。さらに、入力を検出及び認識し、特定のジェスチャを識別する動作の性能を、コンピューティングデバイス102によって及び/又はクラウド208のプラットフォーム210によりサポートされるウェブサービス212等によって、システム200全体に分散させてもよい。
一般に、本明細書で説明される機能のいずれかの機能を、ソフトウェア、ファームウェア、ハードウェア(例えば固定の論理回路)、手動の処理又はこれらの実装の組み合わせを使用して実装することができる。本明細書で使用されるとき、「モジュール」、「機能」、及び「論理/ロジック」という用語は、一般にソフトウェア、ファームウェア、ハードウェア又はこれらの組み合わせを表す。ソフトウェア実装の場合、モジュール、機能又は論理/ロジックは、(例えば1つ又は複数のCPU)プロセッサにおいて又はプロセッサによって実行されるときに、指定されたタスクを実行するプログラムコードを表す。プログラムコードを、1つ又は複数のコンピュータ読取可能なメモリデバイスに格納することができる。以下で説明されるジェスチャ技術の特徴は、プラットフォーム独立であり、これは、これらのジェスチャ技術が、様々なプロセッサを有する様々な市販のコンピューティングプラットフォームにおいて実装され得ることを意味する。
以下の議論では、様々なセクションにより様々な例示的な実施形態を説明する。「例示的実施形態」というタイトルのセクションでは、1つ又は複数の実施形態に係るビデオキャプチャ段階及びイメージ分析段階の様々な態様を説明する。次に、「例示的方法」というタイトルのセクションでは、1つ又は複数の実施形態に係る例示的な方法を説明する。最後に、「例示的デバイス」というタイトルのセクションでは、1つ又は複数の実施形態を実装するのに用いることができる例示的なデバイスの態様を説明する。
ウェブページのレンダリング時間を測定することができる例示的な動作環境を説明したので、次に、1つ又は複数の実施形態による例示的なビデオキャプチャ及びイメージ分析の議論を検討する。
<例示的な実施形態>
1つ又は複数の実施形態において、ウェブページのレンダリング時間を、ビデオキャプチャ段階を使用して突き止めることができる。ビデオキャプチャ段階の後に、イメージ分析段階が続く。図示及び説明される実施形態では、ビデオキャプチャ段階を、ビデオキャプチャコンポーネント106のようなビデオキャプチャコンポーネントによって実施することができる。イメージ分析段階を、イメージ分析コンポーネント107のようなイメージ分析コンポーネントによって実施することができる。
<ビデオキャプチャ段階>
ビデオキャプチャ段階に関して、下記を検討する。1つ又は複数の実施形態において、ビデオキャプチャ段階の開始は、ウェブページへのナビゲーションに先行して、又はこれに応答して起こり得る。例えば少なくとも一部の実施形態において、ビデオキャプチャ段階を手動で開始し、その後にウェブページへの手動又は自動のナビゲーションが続く。この例では、人間の評価者がビデオキャプチャコンポーネントを起動し、次いでウェブページへのナビゲーションを開始してもよい。他の実施形態では、自動化されたテストシステムが、ウェブページへの自動化されたナビゲーションに関連してビデオキャプチャを開始してよい。
1つ又は複数の実施形態において、ナビゲーションが開始され、ビデオキャプチャが開始されると、ナビゲーションアクティビティの開始を表現するよう、ビデオデータを何らかの方法でマークすることができる。ビデオデータをマークすることは、任意の適切な方法で起こり得る。例えば少なくとも一部の実施形態において、視覚的識別子などの適切なマークをディスプレイデバイス又はディスプレイ画面上で作成して、ナビゲーションが始まったことを示すことができる。任意の適切なマークを使用することができる。しかし一例として図3を検討する。図3において、コンピューティングデバイス102のディスプレイデバイス108は、左下の角にマーク300を含む。このマークが、ウェブページへのナビゲーションを記述するビデオデータとともにキャプチャされる。あるいはまた、ビデオデータは、タイムスタンプを使用して、又はビデオデータとともに含まれる何らかの他の適切なタイプのメタデータを使用してマークされることが可能である。マーク、すなわち識別子は視覚的なものであっても、視覚的でなくてもよい。
ウェブページがレンダリングされた後(図3の矢印に沿って図面の下の方に視覚的に進行することで図示されているように)、ビデオキャプチャを終了することができる。ビデオキャプチャの終了は任意の適切な方法で起こり得る。例えば少なくとも一部の実施形態において、ビデオキャプチャの終了は、例えば10秒等の所定の時間枠の後に起こり得る。あるいは、ビデオキャプチャの終了は、ネットワークトラフィックから生じるキューを使用して起こり得る。例えばビデオキャプチャコンポーネントは、全てのファイルがダウンロードされた時を考慮し、ビデオキャプチャが終了した後にある時間量を追加することによって、所定の時間バッファに加えて、受信した最後のバイトを考慮することができる。これら及び他の技術を使用してビデオキャプチャを終了し、完全なレンダリングが起こった、又は起こったと見込まれることを確かめることができる。少なくとも一部の実施形態において、これらの終了技術は、確実に適切なビデオデータがキャプチャされるように、ウェブページレンダリングの完了を「オーバーシュート」することができる。
上述のようにビデオデータがキャプチャされると、下述するようにビデオデータのイメージ分析が起こり得る。
<イメージ分析段階>
イメージ分析段階に関して、下記を検討する。少なくとも一部の実施形態において、ビデオデータがキャプチャされると、更なる分析のために関心領域を識別することができる。これを任意の適切な方法で実行することができる。例えば少なくとも一部の実施形態において、ビデオデータに関連付けられるビデオを識別して、開始フレームを識別することができる。任意の適切な方法を用いて開始フレームを識別することができる。例えば少なくとも一部の実施形態において、上述のような視覚的インジケータが最初に現れるフレームを探すことによって、開始フレームを識別することができる。あるいはまた、特定のタイムスタンプに関連付けられたフレームを探すことができる。
次に、関連するビデオを、完全なレンダリング状態を表すフレームに転送することができる。任意の適切な技術を使用してこのフレームを識別することができる。例えば完全なレンダリング状態を表すフレームは、開始フレームの後の特定の予め定義された時間に起こるフレームとしてもよい。あるいはまた、このフレームは、受信される最後のバイト等のような特定のイベントの発生に関連して起こり得る。
完全なレンダリング状態を構成するフレームの集合が選択されると、関心領域を、後続の分析のためにマークすることができる。少なくとも一部の実施形態において、これは、限定ではなく例として入力デバイスを使用してビデオ上の領域を直接マークすることのような、手動のプロセスを含むか、又は手動のプロセスによって実施することができる。あるいはまた、自動的なアプローチを使用して1つ又は複数の関心領域を識別することができる。例えばイメージ認識を使用して、これらの領域を識別することができる。あるいは、ウェブサイトの関連するドキュメントオブジェクトモデル(DOM)においてみられるようなメタデータが、異なる領域のヒント又はタグを識別することができる。次いで、各関心領域に名前を付けて、構成ファイル内に保存することができ、その結果、記録されたビデオデータに対してイメージ分析を実行することができる。例として図4を検討する。
図4では、2つの別個の関心領域が識別されている。第1の関心領域400は、可視の画面全体を含み、したがって全ての可視コンテンツをカプセル化している。代替的に、第2の関心領域402は、可視コンテンツのサブ部分をカプセル化するサブ領域を含む。この例において、関心領域402は、広告又はマルチメディアビデオを含んでもよい。
1つ又は複数の関心領域を指定したが、次にイメージ処理を行って、特定のウェブページに関連付けられたレンダリング時間、並びに指定された1つ又は複数の関心領域に関連するレンダリング時間を測定することができる。
最初に、ビデオデータに関連付けられるビデオがロードされ、イメージ分析コンポーネントはビデオのサブフレームを探すことができる。開始フレームは、上述のように、予め識別され、又はマークされたものである。この開始フレームを、後続フレームとの比較のための基準イメージとして指定することができる。開始フレームが基準イメージとして指定されると、ウェブページのレンダリングに関連付けられた時間ベースのレンダリングメトリックを計算するために、後続のフレームを開始フレームと比較することができる。現在のフレームを開始フレームと比較するために、任意の適切なアルゴリズムを使用することができる。そのようなアルゴリズムには、限定ではなく例として、ヒストグラム、差分パーセンテージ、エリアごとの白でないピクセルの数、光学文字認識(OCR)技術等を用いるものが含まれ得る。そのようなアルゴリズムを使用して、ピクセルごとに比較を行うか、領域のピクセルの要約を比較することができる。
分析される各フレームについて、そのフレームに関連付けられるタイムスタンプ、及び関連する、計算された差分値をログに取ることができる。計算された差分値は、フレームを比較するのに使用される分析アルゴリズムに基づいて計算される値である。フレームが全て分析され、これらのフレームのタイムスタンプ及び関連する差分値をログに取ると、データを処理して、ページ又はページの部分のレンダリング時間を抽出することができる。
具体的には、上述の処理は、レンダリングするウェブページ又はその一部分に関連付けられる、経時的に変化するピクセル数を記述するデータを展開できるようにする。有利には、任意の特定のレンダリングウェブページ(又はその一部分)は、経時的に変化するピクセルに関して定義することができるパターンを有する。このパターンは、レンダリングされているコンテンツの性質に応じて変化し得る。例えば静的なコンテンツを有するウェブページは、アニメーションを含むウェブページとは異なるパターンを有するであろう。同様に、1つのアニメーションを有するウェブページは、多くの数のアニメーションを有するウェブページとは異なるパターンを有する可能性が高いであろう。同様に、関心領域として指定されたウェブページの部分は、特定の部分内のレンダリングされるコンテンツに応じて異なるパターンを有するであろう。
しかしながら、任意の特定のパターンが、完全なレンダリング状態を示すパターン領域を有するであろう。この特定のパターン領域を識別することによって、完全なレンダリング状態に関連付けられる時間を突き止めて、ウェブページ又はウェブページの一部を完全にレンダリングするのに用いられる時間の正確な測定を提供することができる。例として図5を検討する。
図5では、経時的な「ピクセル変化」のグラフが、パターン500とともに示されている。パターン500は、関連するウェブページのピクセルがレンダリングの間に経時的にどのように変化したかを図示している。ここで、「全レンダリングの閾値」は、ピクセルの特定の数、例えばピクセルの90%に設定されていることに留意されたい。
この例において、パターン500に関連付けられたウェブページは、絶えず変化するコンポーネントを含む。例えばそのようなコンポーネントは、動くオーディオ/ビジュアルコンテンツを用いる広告を備えることがある。パターン500内の段階はそれぞれ、時間に対するピクセルの変化を表す。この例において、ページは、順次レンダリングされる個々の要素が徐々に増えるように、レンダリングされている。パターン500内の(左端にある)最初の段階は、関連するピクセル変化を発生させるコンテンツレンダリングプロセスが開始するときの最初のレンダリング時間を構成する。パターンが進むと、全レンダリングの閾値と交差する。この閾値を超えると、ページは、変化するオーディオ/ビジュアルコンテンツにより、経時的に変化し続ける。全レンダリング時間の閾値と交差することによって、ページが安定した後に、十分なパターン500が記録されると、パターン領域を識別し、パターン領域が開始した時間を識別することができる。次いで、このパターン領域の開始時間を、ウェブページのレンダリングが完了したと見込まれる時間として選択することができる。例えばビデオ又は広告に対応するパターン領域が502に示されている。パターンの開始点が矢印で示されており、この開始点は、示されているように「レンダリング完了時間」を定義する。別の例として図6を検討する。
図6には、経時的な「ピクセル変化」のグラフがパターン600について示されており、パターン600は、レンダリング中に色に突然大きな変化があるページを表している。例えばページの背景色が、突然変化して、完全にレンダリングされたページを示す可能性がある。これは、図6において全レンダリングの閾値と交差する大きな第2の段階によって表されている。この特定の例において、パターン600に関連付けられたウェブページは、色の大きな変化の後、絶えず変化するコンポーネントを含む。例えばそのようなコンポーネントは、動くオーディオ/ビジュアルコンテンツを用いる広告を備えることがある。これは、開始時間を識別することができるパターン領域602を定義する。前と同様に、このパターン領域の開始時間を、ウェブページのレンダリングが完了したと見込まれる時間として選択することができる。パターン領域602の開始点は矢印で識別され、この開始点は、示されているように「レンダリング完了時間」を定義する。更なる例として図7を検討する。
図7には、経時的な「ピクセル変化」のグラフがパターン700について示されており、パターン700は、テキストを含むコンテンツを有するページを表す。この例において、ページのテキスト以外のコンテンツは、パターンが全レンダリングの閾値と最初に交差した手法でレンダリングされている。しかしながら、この例では、テキストはまだレンダリングされていない。したがって、パターン領域702に移るって閾値と交差する時点では、テキストはまだレンダリングされていない。矢印によって識別されているパターンの次の段階が、テキストの描画イベントを構成する。この点において、パターン領域702の開始点は(テキストの描画イベントに対応する)矢印によって識別され、この開始点が、示されるように「レンダリング完了時間」を定義する。この例は、全レンダリングの閾値との最初の交差が、必ずしもレンダリング完了時間を示すわけでないことを図示している。むしろ、様々なパターン領域を、実際にレンダリングされているコンテンツのコンテキストにおいて分析することによって、可能性の高いレンダリング完了時間を突き止めることができる。
1つ又は複数の実施形態に係る、ウェブページ又はウェブページ内の関心領域に関連付けられるレンダリング時間を計算することができる様々な例を検討したので、次に、1つ又は複数の実施形態に係る例示的な方法を検討する。
<例示的な方法>
図8は、1つ又は複数の実施形態に係る方法のステップを説明するフロー図である。本方法を、任意の適切なハードウェア、ソフトウェア、ファームウェア又はこれらの組み合わせとの関連で実行することができる。少なくとも一部の実施形態において、本方法を、何らかのタイプのコンピュータ読取可能媒体において具現化されるソフトウェアによって実行することができる。説明される機能を実行することができるソフトウェアの一例には、上述のようなビデオキャプチャコンポーネント及びイメージ分析コンポーネントが含まれる。
ステップ800において、ディスプレイデバイス上へのウェブページのレンダリングに関連付けられるビデオデータをキャプチャする。このステップを任意の適切な方法で実行することができる。例えば少なくとも一部の実施形態において、ビデオデータがキャプチャされ、このビデオデータに関連付けられる識別子が提供されて、特定のウェブページへのナビゲーションが始まると思われるときを識別する。適切な識別子の例は、上記に提示されている。例えば少なくとも一部の実施形態において、識別子は視覚的識別子の形式で存在することができる。あるいはまた、識別子は、限定ではなく例としてタイムスタンプのような、非視覚的な識別子の形式で存在することもできる。
ステップ802において、ウェブページの少なくとも一部のレンダリングに関連付けられる時間ベースのレンダリングメトリックを計算するのに十分にビデオデータを分析する。このステップを任意の適切な方法によって実行することができる。例えば少なくとも一部の実施形態において、分析はフレームごとに行うことができる。一部の例において、フレームごとの分析は、ビデオデータの開始フレームを指定することと、開始フレームを、後続フレームとの差分比較のために基準イメージとして使用することとを含む。差分比較を、画面又はディスプレイデバイス上の可視コンテンツが全て分析される画面ベースで実施することができる。したがって、これらの例において、時間ベースのレンダリングメトリックは、ウェブページが完全にレンダリングされる時を識別する試みに関連付けられる。あるいはまた、差分比較を、ウェブページの全体よりも少ない部分を構成する、ウェブページの一部分に対して実施することができる。したがって、これらの例において、時間ベースのレンダリングメトリックは、ウェブページ全体よりも少ない部分で構成されるウェブページの一部分が完全にレンダリングされる時を識別する試みに関連付けられる。これがどのように行われるかの例は、上記で提示されている。1つ又は複数の実施形態において、時間ベースのレンダリングメトリックに加えて、情報を使用して、ロード又は部分的にロードされるウェブページ又はウェブページの一部分を識別するように試みることができる。例えばシステムリソースの利用を分析して、時間ベースのレンダリングメトリックとともに使用して、ウェブページがロードされる時を識別しようと試みることができる。システムリソースの利用は、限定ではなく例として、関連するディスプレイデバイス又はグラフィックスプロセッサユニット(GPU)の更新頻度、CPUのアクティビティ等を含むことができる。あるいはまた、HTMLやCSS、JavaScript(登録商標)を含む、特定のアプリケーションの挙動及びコードに関連付けられる知識を使用して、ウェブページがロードされる時を識別しようと試みることができる。例えばアプリケーションのコードは、ある形で、例えばウェブページが完全にロードされたことに応答して、特定のコールを行うこと又は特定のルーチンを実装することによって挙動することがある。
図9は、1つ又は複数の実施形態に係る別の方法のステップを説明するフロー図である。本方法を、任意の適切なハードウェア、ソフトウェア、ファームウェア又はこれらの組み合わせとの関連で実行することができる。少なくとも一部の実施形態において、本方法を、何らかのタイプのコンピュータ読取可能媒体において具現化されるソフトウェアによって実行することができる。説明される機能を実行することができるソフトウェアの一例には、上述のようなビデオキャプチャコンポーネント及びイメージ分析コンポーネントが含まれる。
ステップ900において、ディスプレイデバイス上で、ウェブページへのナビゲーションに関連するビデオデータのキャプチャを開始する。このステップを任意の適切な方法で実行することができ、その例は上記に提示されている。例えばこのステップは、ユーザが特定のウェブページへのリンクをクリックすることに応答して実行されることがある。ステップ902において、関連するナビゲーションが始まると思われる時を識別する。このステップを任意の適切な方法で実行することができる。例えば上記のように、このステップを、ディスプレイデバイスの画面上の視覚的識別子を使用することによって実行することができる。視覚的識別子は、ナビゲーションが始まると思われる時を識別する。ナビゲーションを開始するリンクのクリックを検出したことに応答して、視覚的識別子を画面上に置くことができる。あるいは、ウェブページを要求するリクエストが送信されたときに、視覚的識別子を画面上に置くことができる。ステップ904において、ナビゲーションに関連付けられるビデオデータの複数のフレームを提供するのに効果的なビデオデータのキャプチャを終了する。このステップを任意の適切な方法で実行することができ、その例は上記に提示されている。例えば少なくとも一部の実施形態において、終了は所定の時間に起り得る。あるいは、終了は、限定ではなく例として最後に受信したバイトのような、受信したデータの最後の量などによって、受信したウェブページのコンテンツに関連付けられた情報に基づいて起こり得る。ステップ906において、複数のフレームの視覚的特性を分析する。このステップを任意の適切な方法で実行することができる。例えば、分析はフレームごとに行われ得る。具体的には、少なくとも一部の実施形態において、開始フレームを後続フレームとの差分比較のための基準イメージとして指定して、使用することができる。差分比較を、画面上に視覚的に現れるコンテンツの全てを分析することによる等、画面ベースで実施することができる。あるいはまた、差分比較を、ウェブページの全体よりも小さい部分を構成する関連するウェブページの一部に対して実施することができる。
少なくとも一部の実施形態において、フレームの視覚的特性の分析は、フレーム内のピクセル変化のパターンベースの分析を実施することを含むことができる。視覚的特性の分析に基づいて、ステップ908において、ウェブページの少なくとも一部のレンダリング状態に関連付けられる時間ベースのレンダリングメトリックを計算する。一部の実施形態において、レンダリング状態は、完全にレンダリングされるウェブページに関連付けられる状態である。他の実施形態では、レンダリング状態は、ウェブページのサブ領域のレンダリングに関連付けられる状態である。更に他の実施形態では、レンダリング状態を、部分的にレンダリングされる、又は徐々にレンダリングされる領域に関連付けることができる。徐々にレンダリングされる領域を、これらに関連する時間ベースのレンダリングメトリックに関して分析することは、ユーザの経験を高めるために、ダウンロード用のページコンポーネントをどのように順序付けるべきかを決定する際に有益である可能性がある。
例示的な実施形態について説明してきたので、次に、上述の実施形態を実装するのに用いることができる例示的なデバイスを検討する。
<例示的なデバイス>
図10は、図1、2を参照して説明したような、本明細書で説明される実施形態を実装する任意のタイプのポータブル及び/又はコンピュータデバイスとして実装することができる例示的デバイス1000の様々なコンポーネントを図示する。デバイス1000は、(例えば受信したデータ、受信中のデータ、放送用にスケジュールされたデータ、該データのデータパケット等の)デバイスデータ1004の有線及び/又は無線通信を可能にする通信デバイス1002を含む。デバイスデータ1004又は他のデバイスコンテンツは、デバイスの構成設定、デバイスに格納されているメディアコンテンツ及び/又はデバイスのユーザに関連付けられた情報を含むことができる。デバイス100に格納されたメディアコンテンツは、任意のタイプのオーディオデータ、ビデオデータ及び/又はイメージデータを含むことができる。デバイス1000は1つ又は複数のデータ入力部1006を含む。この1つ又は複数のデータ入力部1006を介して、ユーザ選択可能な入力、メッセージ、音楽、テレビメディアコンテンツ、記録されたビデオコンテンツ、並びに任意のコンテンツ及び/又はデータソースから受信される任意の他のタイプのオーディオ、ビデオ及び/又はイメージデータのような、任意のタイプのデータ、メディアコンテンツ及び/又は受信することができる。
デバイス100は、通信インタフェース1008も含む。通信インタフェース1008は、シリアル及び/又はパラレルインタフェース、無線インタフェース、任意のタイプのネットワークインタフェース、モデム及び任意の他のタイプの通信インタフェースのうちのいずれか1つ又は複数として実装されることが可能である。通信インタフェース1008は、デバイス1000と、他の電子的なコンピューティング通信デバイスが当該デバイス1000とデータを通信する通信ネットワークとの間の接続及び/又は通信リンクを提供する。
デバイス1000は、1つ又は複数のプロセッサ1010(例えばマイクロプロセッサ、コントローラ等)を含む。1つ又は複数のプロセッサ1010は、様々なコンピュータ実行可能又は読取可能命令を処理して、デバイス1000の動作を制御し、そして上述の実施形態を実装する。あるいはまた、デバイス1000を、ハードウェア、ファームウェア、又は1012で一般的に識別される処理及び制御回路との関連で実装される固定の論理回路、のうちのいずれか1つ又はその組み合わせを使用して実装することもできる。図示されていないが、デバイス1000は、デバイス内の様々なコンポーネントを結合するシステムバス又はデータ伝送システムを含むことができる。システムバスは、メモリバス若しくはメモリコントローラ、周辺バス、ユニバーサルシリアルバス、及び/又は様々なバスアーキテクチャのいずれかを使用するプロセッサ若しくはローカルバスのような、異なるバス構造のいずれか1つ又は組み合わせを含むことができる。
デバイス100は、1つ又は複数のメモリコンポーネントのようなコンピュータ読取可能媒体1014も含む。そのようなコンピュータ読取可能媒体1014の例には、ランダムアクセスメモリ(RAM)、非揮発性メモリ(例えば読み取り専用メモリ(ROM)、フラッシュメモリ、EPROM、EEPROM等のうちのいずれか1つ又は複数)及びディスクストレージデバイスが含まれる。ディスクストレージデバイスを、ハードディスクドライブ、記録可能及び/又は再書き込み可能なコンパクトディスク(CD)、任意のタイプのデジタル多用途ディスク(DVD)等のような、任意のタイプの磁気又は光ストレージデバイスとして実装してもよい。デバイス1000は大容量記憶メディアデバイス1016を含むことができる。
コンピュータ読取可能媒体1014は、デバイスデータ1004だけでなく、様々なデバイスアプリケーション1018、並びにデバイス100の動作的態様に関連する任意の他のタイプの情報及び/又はデータを格納するデータ記憶機構を提供する。例えばオペレーティングシステム1020を、コンピュータ読取可能媒体1014によりコンピュータアプリケーションとして保持することができ、プロセッサ1010上で実行することができる。デバイスアプリケーション1018は、デバイスマネージャ(例えばコントロールアプリケーション、ソフトウェアアプリケーション、信号処理及び制御モジュール、特定のデバイスにネイティブのコード、特定のデバイスのハードウェア抽象化レイヤ等)、並びにウェブブラウザ、イメージ処理アプリケーション、インスタントメッセージングアプリケーションのような通信アプリケーション、ワード処理アプリケーション及び様々な他の異なるアプリケーションを含むことができる。デバイスアプリケーション1018は、本明細書で説明される技術の実施形態を実装する任意のシステムコンポーネント又はモジュールも含む。この例において、デバイスアプリケーション1018は、ソフトウェアモジュール及び/又は他のアプリケーションとして示されている、インタフェースアプリケーション1022及びジェスチャ・キャプチャ・ドライバ1024を含む。ジェスチャ・キャプチャ・ドライバ1024は、タッチスクリーン、トラックパッド、カメラ等のような、ジェスチャをキャプチャするように構成されたデバイスとのインタフェースを提供するのに使用されるソフトウェアを表す。あるいはまた、インタフェースアプリケーション1022及びジェスチャ・キャプチャ・ドライバ1024を、ハードウェア、ソフトウェア、ファームウェア又はこれらの任意の組み合わせとして実装することができる。さらに、コンピュータ読取可能媒体1014は、上述のように機能する、ウェブブラウザ1025a、ビデオキャプチャコンポーネント1025b、及びイメージ分析コンポーネント1025cを含むことができる。
デバイス1000は、オーディオ及び/又はビデオ入出力システム1026も含む。オーディオ及び/又はビデオ入出力システム1026は、オーディオデータをオーディオシステム1028に提供し、及び/又はビデオデータをディスプレイシステム1030に提供する。オーディオシステム1028及び/又はディスプレイシステム1030は、オーディオ、ビデオ及びイメージデータを処理、表示、及び/又は他の方法でレンダリングする任意のデバイスも含むことができる。ビデオ信号及びオーディオ信号を、RF(無線周波数)リンク、S−ビデオリンク、コンポジットビデオリンク、DVI(デジタルビデオインタフェース)、アナログオーディオ接続又は他の同様の通信リンクを介して、デバイス1000からオーディオデバイス及び/又はディスプレイデバイスに通信することができる。ある実施形態において、オーディシステム1028及び/又はディスプレイシステム1030は、デバイス1000の外部コンポーネントとして実装される。あるいは、オーディオシステム1028及び/又はディスプレイシステム1030は、例示デバイス1000の内蔵コンポーネントとして実装される。
<結論>
様々な実施形態は、ウェブブラウザ独立のウェブページのレンダリング時間を測定するためのアプローチを提供する。少なくとも一部の実施形態において、ウェブページがレンダリングされると、該ウェブページのビデオデータをキャプチャして分析し、ウェブページが完全にレンダリングされた可能性が高い時を突き止める。少なくとも一部の実施形態において、イメージ処理を、キャプチャされたビデオデータに対して実行して、観測されるピクセルの経時的な変化から、ウェブページがレンダリングされた可能性が高い時を突き止めることができる。
少なくとも一部の実施形態において、説明された分析技術を通じて、ページ全体に関連付けられるレンダリング時間を突き止めることができる。あるいはまた、説明された分析技術を通じて、特定のページのサブ領域に関連付けられるレンダリング時間を突き止めることができる。一部の例において、関心のない領域をマスクするか無視することができる。
諸実施形態を構造的特徴及び/又は方法的動作に特有の言語で説明してきたが、添付の特許請求の範囲において定義される実施形態は、必ずしも説明された具体的な特徴及び動作に限定されない。むしろ、その具体的特徴及び動作は、特許請求に係る実施形態を実装する例示的形式として開示される。


Claims (10)

  1. コンピューティングデバイスによって実行される方法であって、
    前記コンピューティングデバイスのウェブブラウザにより、前記コンピューティングデバイスのディスプレイデバイス上へウェブページがレンダリングされると、前記コンピューティングデバイスのビデオキャプチャコンポーネントにより、前記ウェブページのレンダリングの記録を備えるビデオデータをキャプチャするステップと、
    前記コンピューティングデバイスのイメージ分析コンポーネントにより、前記ウェブページの少なくとも一部のレンダリングに関連付けられる時間ベースのレンダリングメトリックを計算するのに十分に前記ビデオデータを分析するステップであって、前記時間ベースのレンダリングメトリックは、ウェブページのロード時間に関連する定量的データを備える、ステップと
    を含む、方法。
  2. 前記イメージ分析コンポーネントにより、システムリソース利用を分析し、該分析されたシステムリソース利用と前記時間ベースのレンダリングメトリックを使用して、前記ウェブページの前記少なくとも一部がレンダリングされる時を識別するよう試みるステップを更に含む、請求項1に記載の方法。
  3. 前記イメージ分析コンポーネントにより、前記ディスプレイデバイス及びグラフィクスプロセッサユニット(GPU)の更新頻度を分析し、該分析された更新頻度と前記時間ベースのレンダリングメトリックを使用して、前記ウェブページの前記少なくとも一部がレンダリングされる時を識別するよう試みるステップを更に含む、請求項1に記載の方法。
  4. 前記時間ベースのレンダリングメトリックは、前記ウェブページが部分的に又は完全にレンダリングされる時を識別する試みに関連付けられる、請求項1に記載の方法。
  5. 前記ビデオデータをキャプチャするステップは、前記ビデオデータに関連付けられる識別子であって、前記ウェブページへのナビゲーションが始まると思われる時を識別する識別子を提供することを含み、該識別子は、視覚的識別子を備える、請求項1に記載の方法。
  6. 前記分析するステップは、前記ビデオデータの開始フレームを指定して、該開始フレームを、後続フレームとの差分比較のための基準イメージとして使用することによって、前記ビデオデータをフレームごとに分析することを含み、前記差分比較は、前記ディスプレイデバイスに関連付けられる画面ベースで実施される、請求項1に記載の方法。
  7. コンピュータプログラムであって、プロセッサによって実行されると、該プロセッサに、
    ディスプレイデバイスにおいて、ウェブページへのナビゲーションに関連して、ビデオデータのキャプチャを開始するステップと、
    前記ナビゲーションが始まると思われる時を識別するステップと、
    ビデオを作成するために効果的な前記ビデオデータのキャプチャを終了するステップであって、前記ビデオが、前記ナビゲーションに関連付けられるビデオデータの複数のフレームを提供する、ステップと、
    前記複数のフレームの視覚的特性を分析するステップと、
    前記の分析に基づいて、前記ウェブページの少なくとも一部のレンダリング状態に関連付けられる時間ベースのレンダリングメトリックを計算するステップと
    を含む方法を実行させる、コンピュータプログラム。
  8. 前記レンダリング状態は、完全にレンダリングされたウェブページに関連付けられる状態を含む、請求項7に記載のコンピュータプログラム。
  9. 前記識別するステップは前記ディスプレイデバイスの画面上の視覚的識別子を使用することを含む、請求項7に記載のコンピュータプログラム。
  10. 前記視覚的特性を分析するステップは、前記ビデオデータの開始フレームを指定して、該開始フレームを、後続フレームとの差分比較のための基準イメージとして使用することによって、視覚的特性をフレームごとに分析することを含み、前記差分比較は画面ベースで実施される、請求項7に記載のコンピュータプログラム。
JP2014542483A 2011-11-16 2012-11-16 ウェブページのレンダリング時間の測定 Active JP6214547B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/298,219 US8644623B2 (en) 2011-11-16 2011-11-16 Measuring web page rendering time
US13/298,219 2011-11-16
PCT/US2012/065464 WO2013074893A2 (en) 2011-11-16 2012-11-16 Measuring web page rendering time

Publications (3)

Publication Number Publication Date
JP2015503152A JP2015503152A (ja) 2015-01-29
JP2015503152A5 JP2015503152A5 (ja) 2015-12-17
JP6214547B2 true JP6214547B2 (ja) 2017-10-18

Family

ID=48280721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014542483A Active JP6214547B2 (ja) 2011-11-16 2012-11-16 ウェブページのレンダリング時間の測定

Country Status (6)

Country Link
US (1) US8644623B2 (ja)
EP (1) EP2780820B1 (ja)
JP (1) JP6214547B2 (ja)
KR (1) KR102047568B1 (ja)
CN (1) CN103930885B (ja)
WO (1) WO2013074893A2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10048854B2 (en) 2011-01-31 2018-08-14 Oracle International Corporation Drag and drop interaction between components of a web application
US8572505B2 (en) * 2011-01-31 2013-10-29 Oracle International Corporation Automatically testing a web application that has independent display trees
US8626909B2 (en) * 2012-05-22 2014-01-07 Microsoft Corporation Page phase time
FR2997522B1 (fr) * 2012-10-26 2015-12-25 Infovista Sa Procede permettant a un systeme de surveillance du reseau d'evaluer de facon non intrusive le ressenti utilisateur lors du chargement d'une page web
US10068508B2 (en) * 2013-08-30 2018-09-04 Google Llc Measuring user interface performance consistency
CN104102582A (zh) * 2014-07-15 2014-10-15 深圳市金立通信设备有限公司 一种应用程序运行的检测装置及终端
CN104090842A (zh) * 2014-07-15 2014-10-08 深圳市金立通信设备有限公司 一种应用程序运行的检测方法
US20170083217A1 (en) * 2014-09-08 2017-03-23 Hewlett Packard Enterprise Development Lp User interface components load time visualization
US10033656B2 (en) * 2015-05-21 2018-07-24 Sap Portals Israel Ltd Critical rendering path optimization
CN107451193B (zh) * 2017-06-29 2019-06-11 北京三快在线科技有限公司 一种客户端页面加载时间的获取方法及装置,电子设备
KR102000342B1 (ko) * 2017-08-31 2019-07-15 충남대학교산학협력단 사용자 단말, 화면 표시 모니터링 방법, 및 컴퓨터 판독가능 기록 매체
CN109656645A (zh) * 2017-10-11 2019-04-19 阿里巴巴集团控股有限公司 展现时间确定方法和页面渲染完成时间的确定方法及装置
US10387012B2 (en) * 2018-01-23 2019-08-20 International Business Machines Corporation Display of images with action zones
US20190347315A1 (en) * 2018-05-08 2019-11-14 International Business Machines Corporation Methods and systems for rendering web pages with restricted features
CN109271600B (zh) * 2018-08-16 2022-02-22 微梦创科网络科技(中国)有限公司 一种性能数据的监测方法、***和装置
CN108900776B (zh) * 2018-08-22 2020-11-27 北京百度网讯科技有限公司 用于确定响应时间的方法和装置
CN109165167A (zh) * 2018-09-07 2019-01-08 苏宁智能终端有限公司 一种响应时间的测试方法及装置
CN110209978B (zh) * 2019-01-28 2023-05-16 腾讯科技(深圳)有限公司 一种数据处理方法和相关装置
CN111796824A (zh) * 2020-06-29 2020-10-20 平安普惠企业管理有限公司 页面加载方法、装置、服务器及介质
KR102328060B1 (ko) * 2020-10-13 2021-11-17 주식회사 한글과컴퓨터 구조화된 문서에 대한 로드 시간을 예측하는 전자 장치 및 그 동작 방법
CN112346935A (zh) * 2020-11-12 2021-02-09 腾讯科技(北京)有限公司 渲染耗时的获取、显示方法、性能监控方法、装置及设备
CN113780163A (zh) * 2021-09-09 2021-12-10 上海浦东发展银行股份有限公司 一种页面加载时间的检测方法、装置、电子设备及介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5796952A (en) * 1997-03-21 1998-08-18 Dot Com Development, Inc. Method and apparatus for tracking client interaction with a network resource and creating client profiles and resource database
US6587878B1 (en) 1999-05-12 2003-07-01 International Business Machines Corporation System, method, and program for measuring performance in a network system
US20080148330A1 (en) * 2000-02-03 2008-06-19 Gad Liwerant Method and system for sharing video over a network
US6567103B1 (en) * 2000-08-02 2003-05-20 Verity, Inc. Graphical search results system and method
US7519702B1 (en) 2000-08-10 2009-04-14 International Business Machines Corporation Method and apparatus for measuring web site performance
US20020169868A1 (en) 2001-04-20 2002-11-14 Lopke Michael S. Interactive remote monitoring of client page render times on a per user basis
US20040221034A1 (en) 2002-12-18 2004-11-04 Kausik Balas Natarajan Centralized measurement of web performance
GB2404546B (en) * 2003-07-25 2005-12-14 Purple Interactive Ltd A method of organising and displaying material content on a display to a viewer
US7475067B2 (en) 2004-07-09 2009-01-06 Aol Llc Web page performance scoring
US8812648B2 (en) 2005-11-21 2014-08-19 Ebay Inc. Techniques for measuring above-the-fold page rendering
US20070226058A1 (en) * 2006-03-21 2007-09-27 Myware, Inc. Time based electronic advertisement
PL2615833T3 (pl) * 2006-10-19 2014-10-31 Ericsson Telefon Ab L M Sposób określania jakości obrazu video
JP4952531B2 (ja) 2007-11-19 2012-06-13 富士通株式会社 記録装置、記録プログラム、および記録方法
JP2009163370A (ja) 2007-12-28 2009-07-23 Noritsu Koki Co Ltd キャプチャーソフトウエアプログラム及びキャプチャー装置
US8726146B2 (en) * 2008-04-11 2014-05-13 Advertising.Com Llc Systems and methods for video content association
US20100005403A1 (en) * 2008-07-02 2010-01-07 Rozmaryn Gadiel Z Monitoring viewable times of webpage elements on single webpages
US8990289B2 (en) * 2009-02-27 2015-03-24 Oracle America, Inc. Server based framework for improving Ajax performance
US20100325615A1 (en) * 2009-06-23 2010-12-23 Myspace Inc. Method and system for capturing web-page information through web-browser plugin
US20110029899A1 (en) 2009-08-03 2011-02-03 FasterWeb, Ltd. Systems and Methods for Acceleration and Optimization of Web Pages Access by Changing the Order of Resource Loading
US20110119370A1 (en) 2009-11-17 2011-05-19 Microsoft Corporation Measuring network performance for cloud services
CA2783355C (en) 2009-12-08 2016-07-12 Comscore, Inc. Systems and methods for identification and reporting of ad delivery hierarchy
US8891939B2 (en) 2009-12-22 2014-11-18 Citrix Systems, Inc. Systems and methods for video-aware screen capture and compression
JP2011154636A (ja) * 2010-01-28 2011-08-11 Canon Inc レンダリングシステム、データの最適化方法、及びプログラム
JP5418350B2 (ja) * 2010-03-24 2014-02-19 富士通モバイルコミュニケーションズ株式会社 情報処理装置
US20120197711A1 (en) * 2011-01-31 2012-08-02 Yan Zhou Ranking Vendors by Combining Quantitative and Qualitative Characteristics of Third-Party Advertising
US8560683B2 (en) * 2011-06-10 2013-10-15 Google Inc. Video and site analytics
US8610724B2 (en) * 2011-07-29 2013-12-17 Qualcomm Innovation Center, Inc. Systems and methods for webpage adaptive rendering
US9348364B2 (en) * 2011-09-09 2016-05-24 Facebook, Inc. Content scrolling and transitioning using touchpad input

Also Published As

Publication number Publication date
CN103930885B (zh) 2018-05-25
KR102047568B1 (ko) 2019-11-21
KR20140091555A (ko) 2014-07-21
US20130121599A1 (en) 2013-05-16
WO2013074893A3 (en) 2013-07-11
EP2780820A4 (en) 2015-07-22
EP2780820A2 (en) 2014-09-24
CN103930885A (zh) 2014-07-16
US8644623B2 (en) 2014-02-04
EP2780820B1 (en) 2019-01-02
WO2013074893A2 (en) 2013-05-23
JP2015503152A (ja) 2015-01-29

Similar Documents

Publication Publication Date Title
JP6214547B2 (ja) ウェブページのレンダリング時間の測定
US9756140B2 (en) Tracking user behavior relative to a network page
US20160205209A1 (en) Content pre-render and pre-fetch techniques
CA2798507C (en) Input pointer delay and zoom logic
JP6141262B2 (ja) 対象のあいまい性の除去及び修正
US20150082242A1 (en) Providing Context Menu Based on Predicted Commands
US10055388B2 (en) Declarative style rules for default touch behaviors
US20130067396A1 (en) Wrapped Content Interaction
US20170169599A1 (en) Methods and electronic devices for displaying picture
MX2014008310A (es) Retraso de indicador de entrada.
CN110248235B (zh) 软件教学方法、装置、终端设备及介质
US9588679B2 (en) Virtual viewport and fixed positioning with optical zoom
JP2018506783A (ja) 要素識別子の生成
CN109246468B (zh) 一种基于教育***的视频列表切换方法、设备及存储介质
TWI566178B (zh) 電子裝置、使用者介面操作方法以及其電腦程式產品
CN106303705A (zh) 浏览器中视频播放处理方法及装置
KR20170115113A (ko) 메시지 전송 제어 장치, 메시지 전송 제어 방법 및 컴퓨터 판독 가능한 기록 매체
CN114428582A (zh) 一种图像生成方法及电子设备

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170919

R150 Certificate of patent or registration of utility model

Ref document number: 6214547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250