JP6291481B2 - 現在提示中のメディア・プログラムの後来部分の決定 - Google Patents

現在提示中のメディア・プログラムの後来部分の決定 Download PDF

Info

Publication number
JP6291481B2
JP6291481B2 JP2015510501A JP2015510501A JP6291481B2 JP 6291481 B2 JP6291481 B2 JP 6291481B2 JP 2015510501 A JP2015510501 A JP 2015510501A JP 2015510501 A JP2015510501 A JP 2015510501A JP 6291481 B2 JP6291481 B2 JP 6291481B2
Authority
JP
Japan
Prior art keywords
media program
user
currently presented
media
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015510501A
Other languages
English (en)
Other versions
JP2015521413A5 (ja
JP2015521413A (ja
Inventor
コンラッド,マイケル・ジェイ
フルテン,ジェフリー・ジェイ
クルム,カイル・ジェイ
メンドーロ,ウマイマー・エイ
レミントン,ダレン・ビー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2015521413A publication Critical patent/JP2015521413A/ja
Publication of JP2015521413A5 publication Critical patent/JP2015521413A5/ja
Application granted granted Critical
Publication of JP6291481B2 publication Critical patent/JP6291481B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q90/00Systems or methods specially adapted for administrative, commercial, financial, managerial or supervisory purposes, not involving significant data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/458Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4667Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Neurosurgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Analytical Chemistry (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Computer Graphics (AREA)
  • Tourism & Hospitality (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Stored Programmes (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

[0001] 現在、広告主およびメディア提供業者は、プログラムを一般に公開する前に、広告および他のメディア・プログラムを検査することが多い。例えば、メディア提供業者が少数の観衆に連続ホームコメディーを示し、その後聴衆がアンケート結果または手追跡(hand-tracked)情報ログによってフィードバックを与える。
しかしながら、これらのアンケートおよびログは正確でないことが多い。聴衆は、例えば、24分の番組の3分目における面白い冗談を覚えていないかもしれない。そして、結果が多少は正確さを含んでも、聴衆の規模は通例小さく、一般に公開したときにその番組がどのように受け取られるか信頼性高く示さない可能性がある。
[0002] また、メディア提供業者は、制御された環境においてプログラムの提示の間に聴衆の侵襲的生物検査によってプログラムを検査することもできる。この検査は一層正確であり得るが、聴衆の規模は、アンケートおよびログ検査よりも遙かに小さいことが多い。そして、制御された環境で検査が行われることに部分的に起因して、この検査でも非常に不正確である可能性がある。つまり、人は、電気検査デバイスに結び付けられたサウンド・ルームにいるときには、彼または彼女の自宅においてリラックスしているときよりも笑いそうにない。
[0003] 更に、これらの場合のいずれにおいても、プログラムを変更するときの時間遅延が大きくなる可能性がある。新たなプログラムを記録するため、または現在のプログラムを変更するためには、何日もまたは何週間もかかることがあり、これが完了しても、変更したプログラムを再度検査し、プログラムの公開が更に遅れる虞がある。
[0004] 本文書は、現在提示中のメディア・プログラムの後来部分を決定する技法および装置について記載する。本技法および装置は、現在提示中のメディア・プログラムに対する1人または複数の人の現メディア反応を受け、このメディア反応に基づいてメディア・プログラム内に提示すべき後の部分(later portion)を決定することができる。実施形態では、例えば、プログラムを生で提示することができ、この生の提示の間に反応を受けることができ、これらの反応に基づいて、プログラムを実行中にリアル・タイムに変更することができる。更に、この変更は、総合的であること、あるいはグループまたは特定の人に対して個別に行うことができる。
[0005] この摘要は、詳細な説明において以下で更に説明する現在提示中のメディアの後来部分を決定する概念を簡略化して紹介するために設けられている。この摘要は、特許請求する主題の必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を判断するときに使用されることを意図するのでもない。
[0006] 現在提示中のメディア・プログラムの後来部分を決定する技法および装置の実施形態について、以下の図面を参照しながら説明する。図面全体にわたって、同様の機構およびコンポーネントを引用するために、同じ番号が使用される。
図1は、現在提示中のメディア・プログラムの後来部分を決定する技法、および他の技法を実現することができる環境例を示す。 図2は、図1の聴衆に対してローカルである計算デバイス例の図である。 図3は、図1の聴衆に対してリモートであるリモート計算デバイス例の図である。 図4は、受動センサー・データーに基づいてメディア反応を判定する方法例を示す。 図5は、メディア反応の時間基準グラフであり、メディア反応は、メディア・プログラムの提示の間における1人のユーザーについての40分間の興味レベルである。 図6は、反応ヒストリを構築する方法例を示す。 図7は、複数の提示することが可能な広告の内どの広告を提示するか決定することによることを含む、現メディア反応に基づいて広告を提示する方法例を示す。 図8は、プログラムが提示されているときの、プログラムの一部におけるメディア・プログラムに対する現メディア反応を示す。 図9は、広告主からの入札(bid)に基づくことを含む、現メディア反応に基づいて広告を提示する方法例を示す。 図10は、図3の通信ネットワークを介して複数の広告主に情報を渡す図2および図3の広告モジュールを示す。 図11は、現メディア反応が行われた場面の直後に続けることを含む、現メディア反応に基づいて広告を提示する方法を示す。 図12は、メディア・プログラムのユーザーへの提示の間に受動的に検知されたセンサー・データーに基づいて判定されたユーザーの現メディア反応に基づくことを含む、現在提示中のメディア・プログラムの後来部分を決定する方法を示す。 図13は、人口統計学的属性(demographics)、反応履歴の一部、現メディア反応、およびメディア・プログラムについての情報が図2および/または図3の計算デバイスから受信される図3のリモート・デバイスを示す。 図14は、後来部分が明示的に要求されたメディア反応に対する応答であるときを含む、現在提示中のメディア・プログラムの後来部分を決定する方法を示す。 図15は、複数のユーザーのメディア反応に基づくことを含む、現在提示中のメディア・プログラムの後来部分を決定する方法を示す。 図16は、現在提示中のメディア・プログラムの後来部分を決定する技法、および他の技法を実現することができるデバイス例を示す。
全体像
[0007] 本文書は、現在提示中のメディア・プログラムの後来部分を決定する技法および装置について記載する。これらの技法および装置は、プログラムの提示中において、そのメディア・プログラムの位置に対する変更、またはその決定を可能にする。
[0008] 例えば、何千人もの視聴者に提示される連続ホームコメディー番組について考える。この連続ホームコメディーのメディア提供業者が、19分において3つの異なる場面、およびこの番組の終端において4つの異なる終了場面を予め用意したと仮定する。本技法は、提示中におけるメディア反応に基づいて、3つの場面の内どれを19分に提示し、4つの異なる場面の内どれを終端において提示するか決定することができる。どの場面を提示するかは、以前の場面に対する、数千人の視聴者からというような複数のメディア反応に基づくこと、あるいは人のまたは人口統計学的グループの反応に基づくことができる。そのようにすることによって、本技法は、ひとりひとりに対して番組を変更すること、あるいはグループまたは特定の人に対して番組を個別に変更することができる。つまり、本技法は、年齢が18〜34才までの男性の体当たりコメディ(physical comedy)を有する以前の場面に対する反応に基づいて、このグループに19分において体当たりコメディーを有する場面を提示することができ、35〜44才までの女性の登場人物(character)についての以前の場面に対する反応に基づいて、このグループに登場人物の展開(development)を示す場面を提示し、現在この番組を見ている全てのグループからの種々の反応に基づいて、4つの可能な終了の内1つを全ての聴衆に示すことができる。
[0009] これは、現在提示中のメディア・プログラムの後来部分を決定する技法および/または装置をどのように実行することができるかについての一例に過ぎない。本明細書では、技法および/または装置は、コンテキストによって許される通りに、別個にまたは纏めて「技法」と呼ばれる。これより、本文書は、本技法を具体化することができる環境例に移り、次いで本技法と併せて動作することができるがそうする必要はない種々の例に移る。これら種々の方法の一部は、メディアに対する反応を検知し、ユーザーについて反応履歴を構築し、現在の反応に基づいて広告を提示する方法を含む。これら種々の方法の後に、本文書は、現在提示中のメディア・プログラムの後来部分を決定する方法例に移る。
環境例
[0010] 図1は、センサー・データーを受信し、このセンサー・データーに基づいてメディア反応を判定する環境例100の図である。これらのメディア反応は、現在提示中のメディア・プログラムの後来部分を決定するため、および他の使用に使用することができる。本技法は、これらのメディア反応を単独で使用することができ、あるいは人口統計学的属性、反応履歴、およびメディア・プログラムまたはその一部についての情報と組み合わせて使用することもできる。
[0011] 環境100は、メディア提示デバイス102、聴衆検知デバイス104、状態モジュール106、興味モジュール108、インターフェース・モジュール110、およびユーザー・インターフェース112を含む。
[0012] メディア提示デバイス102は、1人以上のユーザー116を有する聴衆114にメディア・プログラムを提示する。メディア・プログラムは、単独でまたは組み合わせで、テレビジョン・ショー、ムービー、音楽ビデオ、ビデオ・クリップ、広告、ブログ、写真、ウェブ・ページ、電子書籍、電子雑誌、コンピュータ・ゲーム、ソング、ツイート、あるいは他のオーディオおよび/またはビデオ・メディアを含むことができる。聴衆114は、1人以上のユーザー116を含むことができる。ユーザー116は、メディア提示デバイス102によって提示されるメディア・プログラムの消費、および聴衆検知デバイス104による測定を可能にする位置に在り、別々にいてもまたは1つの聴衆114の中にいてもよい。聴衆114には、3人のユーザー、即ち、ユーザー116−1、ユーザー116−2、およびユーザー116−3が示される。
[0013] 聴衆検知デバイス104は、聴衆114を検知し、聴衆114についてのセンサー・データーを状態モジュール106および/または興味モジュール108に供給することができる(センサー・データー118は矢印によって供給されることが示される)。検知されるデーターは、受動的に、能動的に、および/または明示的要求に応答して検知することができる。
[0014] 受動的に検知されるデーターは、ユーザーの測定においてユーザーの積極的な関与を必要としないことから受動的である。能動的に検知されるデーターは、手書きのログ、および聴衆におけるユーザーによって装着された生物計量センサーによってユーザーから検知されるデーターというような、聴衆におけるユーザーによって記録されるデーターを含む。明示的要求に応答して検知されるセンサー・データーは、能動的または受動的に検知することができる。一例に、広告があり、この広告の間に、ユーザーが製品の無料試供品のクーポンを郵便で当のユーザーに送って欲しい場合には、ユーザーが彼または彼女の手を上げることを要求する。このような場合、ユーザーは、手を上げるという反応を表現しているが、これは、ユーザーが反応の測定に積極的に関与する必要がないことにより、受動的に検知することができる。本技法は、この上げられた手を、以下に説明するような種々のやり方で検知する。
[0015] センサー・データーは、赤外線センサーが、放出赤外線光をユーザーまたは聴衆空間(例えば、ソファ、壁等)から跳ね返らせて、戻って来る光を検知するというように、 聴衆検知デバイス104によって送られる放出光または他の信号を使用して検知されるデーターを含むことができる。ユーザーを測定するセンサー・データー、およびそれを測定することができる方法の例については、以下で更に詳しく示す。
[0016] 聴衆検知デバイス104は、センサー・データーを状態モジュール106および/または興味モジュール108に供給する前に、それを処理してもしなくてもよい。つまり、センサー・データーは、生データーまたは処理済みデーターであってもよく、または含んでもよい。データーには、RGB(赤、緑、青)フレーム、赤外線データー・フレーム、深度データー、心拍数、呼吸数、ユーザーの頭の向きまたは動き(例えば、三次元x、y、zにおける座標、3つの角度、ピッチ、ティルト、およびヨー)、顔の(例えば、目、鼻、および口)の向き、動き、または遮蔽、骨格の向き、動き、または遮蔽、どのユーザーからオーディオが発したか判定するのに十分な向きを示すデーター、あるいはどのユーザーか、または単語を含む場合は何という単語が言われたのか直接示す情報を含むことができるオーディオ、ユーザー16の内1人の存在および位置を判定するために十分な熱読み取り値またはこれらを示す熱読み取り値、ならびに聴衆検知デバイス104またはメディア提示デバイス102からの距離がある。場合によっては、聴衆検知デバイス104が、赤外線センサー(ウェブカム、Kinectカメラ)、ステレオ・マイクロフォンまたは指向性オーディオ・マイクロフォン、および熱読み取り器(赤外線センサーに加えて)を含むが、他の検知装置も一緒に使用してもよく、または代わりにこれらを使用してもよい。
[0017] 状態モジュール106は、センサー・データーを受け、このセンサー・データーに基づいて、聴衆114におけるユーザー116の状態120を判定する(矢印で示す)。状態は、例えば、悲しい、おしゃべり、嫌い、怖い、微笑む、顰め面、平穏、驚き、怒り、笑う、叫ぶ、拍手、手を振る、歓呼、視線を逸らす、視線を向ける、身を逸らす、身を乗り出す、居眠り、または退屈(departed)、更にその他数多くを含む。
[0018] おしゃべりの状態は、ユーザーが話していることを示す一般的な状態であることができるが、メディア・プログラムについてのおしゃべり(関係のあるおしゃべり)、またはメディア・プログラムには関係のないおしゃべり(無関係なおしゃべり)というような、会話の内容に基づいてサブカテゴリーを含むのでもよい。状態モジュール106は、音声認識によって、どのおしゃべりのカテゴリーか判定することができる。
[0019] 加えてまたは代わりに、状態モジュール106が、センサー・データーに基づいて、ユーザーの人数、ユーザーの識別(identity)、および/または人口統計学的属性データー(122にて示す)、あるいは提示中の関心度(engagement)(124にて示す)を判定することもできる。識別は、スーザン・ブラウンというような、聴衆114におけるユーザー116の1人についての一意の識別を示す。人口統計学的属性データーは、身長5フィート4インチ、子供、および男性または女性というような、ユーザー116の1人を分類する。関心度は、ユーザーの存在または頭の向きに基づいてというようにして、このユーザーがメディア・プログラムに注意を払っていそうか否かを示す。場合によっては、関心度は、状態モジュール106によって、状態を判定するために使用されるセンサー・データーに比較して、それよりも低い解像度または処理が少ないセンサー・データーによって判定することもできる。それでも、関心度は、聴衆を測定するときに、それ自体でも(on its own)有用であり、また興味モジュール108を使用してユーザーの興味を判定するためであっても有用であり得る。
[0020] 興味モジュール108は、センサー・データー118および/またはユーザーの関心度または状態(矢印で示す関心度/状態126)、ならびにメディア・プログラムについての情報(矢印で示すメディア・タイプ128)に基づいて、メディア・プログラムに対するそのユーザーの興味レベル(矢印で示す)130を判定する。興味モジュール108は、例えば、まじめなドラマであることを意図したメディア・プログラムに対して、多数の者が笑っている状態は、低い興味レベルを示すと判断することができ、逆に、コメディーであることを意図したメディア・プログラムに対しては、複数の者が笑っている状態は高い興味レベルを示すと判断することができる。
[0021] 図1に示すように、状態モジュール106および/または興味モジュール108は、人口統計学的属性/識別122、および以下のメディア反応の内1つ以上を供給する。関心度124、状態120、または興味レベル130。これらは全て図1において矢印で示される。これらのメディア反応の1つ以上に基づいて、状態モジュール106および/または興味モジュール108は、他のタイプのメディア反応、格付け(例えば、賛成、三つ星)のような、他のタイプのメディア・プログラムに対する全体的なメディア反応を供給することもできる。場合によっては、しかしながら、メディア反応をインターフェース・モジュール110が受けて、全体的なメディア反応を判定することもある。
[0022] 状態モジュール106および興味モジュール108は、聴衆114に対して、つまり、メディア提示デバイス102および聴衆検知デバイス104に対してローカルにすることができるが、こうしなければならないのではない。状態モジュール106および興味モジュール108が聴衆114に対してローカルである一実施形態例を図2に示す。しかしながら、場合によっては、状態モジュール106および/または興味モジュール108が、聴衆114に対してリモートであることもある。これを図3に示す。
[0023] インターフェース・モジュール110は、メディア反応および人口統計学的属性/識別情報を受け、その反応が関連するメディア・プログラムまたはその一部についての何らかの指示を受ける。インターフェース・モジュール110は、ユーザー・インターフェース112を通じて、メディア反応132をメディア・プログラムに提示する、または提示させることができるが、こうしなければならないのではない。このメディア反応は、以上で述べた反応の内任意のものとすることができ、その一部が、反応を示すアバターを介して、時間基準グラフに提示される。これらの反応の内1つ以上は、関連するメディア・プログラムの間ユーザーの反応がどのようであるかに対して有効である。
[0024] インターフェース・モジュール110は、1人のユーザーが彼または彼女自身のメディア反応、あるいは家族構成員のメディア反応を見ている場合というように、聴衆114に対してローカルであることができる。しかしながら、多くの場合、インターフェース・モジュール110は、メディア反応をリモート・ソースから受ける。
[0025] 尚、センサー・データー118が、ユーザーがメディアに反応しているコンテキスト、あるいはメディアに対する格付けまたは推奨が求められたユーザーについての現在のコンテキストを含んでもよいことを注記しておく。つまり、聴衆検知デバイス104は、第2の人が室内にいること、またそうでなければ第1の人に物理的に近接しており、第1の人に対するコンテキストになり得ることを検知することもできる。また、以下で図2において説明する他のやり方でコンテキストを判定するのでもよい。
[0026] 図2は、聴衆114に対してローカルである計算デバイス例202の図である。計算デバイス202は、メディア提示デバイス102、聴衆検知デバイス104、1つ以上のプロセッサー204、およびコンピューター読み取り可能記憶媒体(「CRM」)206を含むことができ、またはこれらにアクセスすることができる。
[0027] CRM206は、オペレーティング・システム208、状態モジュール106、興味モジュール108、メディア・プログラム(1つまたは複数)210を含み、これらの各々は、関連するプログラム情報212および部分214、インターフェース・モジュール110、ユーザー・インターフェース112、履歴モジュール216、反応履歴218、複数の広告222を含むことができる広告モジュール220、および部分モジュール224を含むことができ、またはこれらに関連付けられてもよい。
[0028] メディア・プログラム210の各々は、プログラム情報212および部分214を有することができ、または含むことができ、またはこれらに関連付けられてもよい。プログラム情報212は、プログラムの名称(name)、タイトル(title)、プログラムの一編(episode)、著者または俳優、プログラムのタイプ、および他の情報を示すことができる。他の情報には、各メディア・プログラム210内部の種々の部分に関係する情報が含まれる。つまり、プログラム情報212は、メディア・プログラム210の1つが音楽ビデオであり、4回繰り返されるコーラス部分を含み、4つの詩(verse)部分を含み、歌っている俳優、踊っているバック・コーラス(backup singers)、音楽ビデオの名称、俳優、制作年、解像度およびフォーマット・データー等のようなソング中における各視覚的提示に基づく部分を含む。
[0029] メディア・プログラム210の1つの部分214は、そのプログラムを構成するか、またはそのプログラムを構成するために使用することができる。これらの部分は、メディア・プログラムにおける特定の時間範囲を表すことができるが、代わりに、これらが直前の部分の終了に基づいて、プログラム内に配置されてもよい(その部分の終了が必ずしも前もって設定されなくても)。部分の例は、15秒長の一片、ラジオ型プログラムにおいて演奏されるソング全体(complete song)、ムービーの一場面であってもよい。これらの部分214は、特定の順序で配列および/または設定されてもよく、その場合、部分214の1つ以上を、メディア反応に応答して、部分モジュール224によって置き換えることができる。これらの部分214は、代わりに、前もって用意されてもよいが、予め設定された順序ではない。つまり、30秒の広告というようなメディア・プログラムが、例えば、予め設定された最初の10秒部分を有するが、10秒の5つの代わりの第2部分と、10秒の15個の代わりの第3部分とを有してもよい。このような場合、11〜12秒にどの部分を再生するかは、人の最初の10秒部分に対するメディア反応に基づくことができる。次いで、第1部分および第2部分に対するユーザーの(または複数のユーザーの)反応の一方または双方に基づいて、21秒から30秒までに再生する第3部分が決定される。
[0030] 部分モジュール224は、部分的に先に注記したように、ユーザー、ユーザーのグループ、または複数のユーザーのメディア・プログラム210の内1つの一部に対する現在の1つまたは複数のメディア反応を受ける。これらのメディア反応は、関心度124、状態120、または興味レベル130の内1つ以上を含むことができる。これらのメディア反応によって、部分モジュール224は、現在提示中のメディア・プログラムの内、今後提示する部分を決定することができる。尚、この決定は、メディア・プログラムの提示中にリアル・タイムに行うことができ、短い広告の後来部分(future portion)を、その広告の同じ提示の早い部分に対する現在の反応に基づいて決定するのにも有効であることを注記しておく。これらの後来部分は、予めローカルにまたはリモートに格納することもできる。提示される後来部分は、ローカル・ストアから受信するのでも、リモート・ソースから現在提示中のメディア・プログラムの後の部分をストリーミングすることによって同時にというように、リモート・ソースから受信されるのでもよい。図2および図3に示すように、メディア・プログラム210、部分214、および部分モジュール224は、計算デバイス202からはローカルでもリモートでもよく、つまり、メディア反応を有する1人または複数のユーザー(例えば、図1の聴衆114のユーザー116−1)からはローカルでもリモートでもよい。
[0031] 履歴モジュール216は、反応履歴218を含むことができ、またはこれにアクセスすることができる。履歴モジュール216は、ユーザー(または以下で注記するように他の者)によってメディア・プログラムに対して行われている反応に基づいて、反応履歴218を構築および更新することができる。場合によっては、履歴モジュール216がユーザーに対する種々のコンテキストを判定するが、これは、代わりに、他のエンティティから判定され受け取られてもよい。つまり、場合によっては、履歴モジュール216は、ユーザーのメディア・プログラムに対する反応の間における時刻、ロケール、そのロケールにおける天候等、あるいはメディア・プログラムについての格付けまたは推奨の要求を判定することもある。履歴モジュール216は、ユーザーに対する現在のコンテキストおよび反応履歴218に基づいて、メディアについての格付けおよび/または推奨を判定することができる。反応履歴218は、本明細書の他の箇所で注記するように、メディア・プログラムの提示する後来部分を決定するために、メディア反応と共に使用することもできる。
[0032] 広告モジュール220は、関心度124、状態120、または興味レベル130の内1つ以上というような、ユーザーの現メディア反応を受ける。この現メディア反応によって、広告モジュール220は、複数の広告222の内、ユーザーに提示する広告を決定することができる。また、広告モジュール220は、代わりに、現メディア反応を広告主に供給し、広告を提示する権利に対する広告主からの入札を受け、次いで広告をユーザーに提示させることもできる。この広告は、予め広告222の1つとして格納されてもよく、あるいは付随する入札がその広告を提示すべきことを示す最高の入札または他の価格決定構造であることに応答して、リモート・ソースからその広告をストリーミングすることによってというように、同時に受信されてもよい。尚、これらの場合のいずれでも、広告モジュール220は、計算デバイス202から、つまりユーザー(例えば、図1の聴衆114のユーザー116−1)からはローカルでもリモートでもよいことを注記しておく。
[0033] 尚、この図示する例では、メディア提示デバイス102、聴衆検知デバイス104、状態モジュール106、興味モジュール108、インターフェース・モジュール110、履歴モジュール216、および広告モジュール220を含むエンティティは、ディスプレイ、前向きカメラ、マイクロフォン、オーディオ出力等を有するデスクトップ・コンピューターのような、1つの計算デバイス内に含まれることを注記しておく。しかしながら、これらのエンティティの各々は、1つまたは多数の計算デバイスあるいはそれ以外において互いから離れていても、または互いに一体になっていてもよい。以下で部分的に説明するが、メディア提示デバイス102は聴衆検知デバイス104と一体になることができるが、状態モジュール106、興味モジュール108、インターフェース・モジュール110、履歴モジュール216、広告モジュール220、または部分モジュール224からは別々にすることができる。更に、これらのモジュールの各々は、別々のデバイスにおいて動作するのでもよく、または1つのデバイスにおいて組み合わされるのでもよい。
[0034] 図2に示すように、計算デバイス(1つまたは複数)202は、各々、種々のデバイスの内の1つまたは組み合わせであることができる。ここでは、6つの例、即ち、ラップトップ・コンピューター202−1、タブレット・コンピューター202−2、スマート・フォン202−3、セット・トップ・ボックス202−4、デスクトップ202−5、およびゲーミング・システム202−6が例示されるが、計算能力を有するテレビジョン、ネットブック、およびセルラ・フォンというような他の計算デバイスやシステムも使用することができる。尚、これらの計算デバイス202の内3つ(ラップトップ・コンピューター202−1、タブレット・コンピューター202−2、スマート・フォン202−3)が、メディア提示デバイス102および聴衆検知デバイス104を含むことを注記しておく。1つのデバイスは、メディア提示デバイス102および聴衆検知デバイス104を含まないがこれらと通信可能である(デスクトップ202−5)。聴衆検知デバイス104がメディア提示デバイス102内に含まれる場合(セット・トップ・ボックス202−4およびゲーミング・システム202−6)のように、2つの他のデバイスは、メディア提示デバイス102を含まず、聴衆検知デバイス104を含んでも含まなくてもよい。
[0035] 図3は、聴衆114に対してリモートであるリモート計算デバイス例302の図である。また、図3は、通信ネットワーク304も示し、これを介して、リモート計算デバイス302は、聴衆検知デバイス104(図示しないが、計算デバイス202内に具体化されるか、またはこれと通信可能である)、インターフェース・モジュール110、履歴モジュール216(反応履歴218を含むまたは含まない)、広告モジュール220(広告222を含むまたは除外する)、および部分モジュール224と通信する。尚、これらのエンティティは、図2に示すように、計算デバイス202内にあると仮定する。通信ネットワーク304は、インターネット、ローカル・エリア・ネットワーク、ワイド・エリア・ネットワーク、ワイヤレス・ネットワーク、USBハブ、コンピューター・バス、他の移動体通信ネットワーク、またはこれらの組み合わせでもよい。
[0036] リモート計算デバイス302は、1つ以上のプロセッサー306と、リモート・コンピューター読み取り可能記憶媒体(「リモートCRM」)308とを含む。リモートCRM308は、状態モジュール106、興味モジュール108,各々プログラム情報212および/または部分214を含むあるいはこれらに関連付けられたメディア・プログラム(1つまたは複数)210、履歴モジュール216、反応履歴218、広告モジュール220、広告222、ならびに部分モジュール224を含む。
[0037] 尚、この図示する例では、メディア提示デバイス102および聴衆検知デバイス104が物理的に状態モジュール106および興味モジュール108から離れており、最初の2つが、メディア・プログラムを見ている聴衆に対してローカルであり、2番目の2つがリモートに動作することを注記しておく。つまり、センサー・データーは、聴衆検知デバイス104から状態モジュール106または興味モジュール108の内一方または双方に渡され、ローカルに(図2)またはリモートに(図3)伝達することができる。更に、状態モジュール106および/または興味モジュール108による判定の後、種々のメディア反応および他の情報を、インターフェース・モジュール110、履歴モジュール216、広告モジュール220、および/または部分モジュール224による受信のために、同じまたは他の計算デバイス202に伝達することができる。つまり、場合によっては、計算デバイス202の内第1のものがセンサー・データーを測定し、このセンサー・データーをリモート・デバイス302に伝達することができ、その後、リモート・デバイス302がメディア反応を計算デバイス202の内他のものに伝達する。これらは全てネットワーク304を通じて行われる。
[0038] これらおよびその他の能力、ならびに図1〜図3のエンティティが動作するおよび相互作用する方法について、以下で更に詳しく説明する。これらのエンティティを更に分割すること、組み合わせること等も行ってもよい。図1の環境100ならびに図2および図3の詳細な図は、説明する技法を採用することができる多くの可能な環境の内一部を例示するに過ぎない。
方法例
受動センサー・データーに基づくメディア反応の判定
[0039] 図4は、受動センサー・データーに基づいてメディア反応を判定する方法400を示す。本明細書において説明するこれらおよびその他の方法は、実行される動作を指定するブロックの集合として示されるが、それぞれのブロックによって動作を実行するために示される順序に必ずしも限定される訳ではない。以下の論述では、図1の環境100および図2、図3において詳細に説明したエンティティを参照することも部分的にあるが、この参照は一例で行われるに過ぎない。本技法は、1つのデバイスにおいて動作する1つのエンティティまたは複数のエンティティによる実行に限定されるのではない。
[0040] ブロック402では、聴衆またはユーザーについてのセンサー・データーを検知または受信する。センサー・データーは、聴衆またはユーザーに対するメディア・プログラムの提示の間に受動的に検知される。このセンサー・データーは、聴衆またはユーザーのコンテキストを含むこともでき、またはコンテキストが別個に受信されてもよい。
[0041] 例えば、聴衆が図1のユーザー116、即ち116−1、116−2、および116−3全員を含む場合について考える。メディア提示デバイス102が、スピーカーを有するLCDディスプレイであり、これを通じてメディア・プログラムがレンダリングされ、ディスプレイが図2のセット・トップ・ボックス202−4と通信可能であると仮定する。ここで、聴衆検知デバイス104は、前向き高解像度赤外線センサー、赤−緑−青センサー、ならびに音および位置を検知することができる2つのマイクロフォン(例えば、指向性アレイ)であり、セット・トップ・ボックス202−4またはメディア提示デバイス102と一体である。また、提示されるメディア・プログラム210が、「信じられない家族」(Incredible Family)と題するPG−級動画であり、リモート・ソースからセット・トップ・ボックス202−4を介してストリーミングされると仮定する。セット・トップ・ボックス202−4は、6つの広告と共に「信じられない家族」を提示する。6つの広告は、映画の開始時に1つ、3広告ブロック(three-ad block)において3つ、そして2広告ブロックにおいて2つに分けられる。
[0042] センサー・データーは、聴衆114における3人のユーザー116全員に対して受信される。この例では、第1ユーザー116−1について考える。ここでは、「信じられない家族」の間に聴衆検知デバイス104が測定を行い、ブロック402において、ユーザー116−1について以下のことを種々の時点で供給する。
Figure 0006291481
[0043] ブロック404では、センサー・データーに基づいて、メディア・プログラムの間におけるユーザーの状態を判定する。場合によっては、ブロック404では、状態に対する確率、または多数の状態に対する多数の確率をそれぞれ判定する。例えば、ブロック404では、正しいが十分な確信度には満たなさそうな状態(例えば、ユーザーが笑っている可能性が40%)を判定するのでもよい。加えてまたは代わりに、ブロック404では、悲しい状態または落ち着いた状態というような、多数の状態がセンサー・データーに基づいて可能であることができ、そして各々に対する確率(例えば、悲しい状態が65%、落ち着いた状態が35%)を判定することもできる。
[0044] 加えてまたは代わりに、ブロック404では、人口統計学的属性、識別、および/または関心度を判定するのでもよい。更に、方法400は、ブロック404を飛ばして直接406に進んでもよい。ブロック406については後に以下で説明する。
[0045] 説明中の例では、状態モジュール106は以上で列挙したセンサー・データーを受け、ユーザー116−1について以下の対応する状態を判定する。
Figure 0006291481
[0046] 時点1において、状態モジュール106は、ユーザー116−1の頭がLCDディスプレイを直接見るときよりも3度ずれていることを示すセンサー・データー、および前を見る状態は20度未満のずれに適用されることを示す規則(一例に過ぎない)に基づいて、ユーザー116−1の状態がメディア・プログラムの方を見ていると判定する。同様に、時点2において、状態モジュール106は、ずれが20度よりも大きくなったことにより、ユーザー116−1が視線を逸らしていると判定する。
[0047] 時点3において、状態モジュール106は、ユーザー116−1が彼の腕において骨格の動きを行ったことを示すセンサー・データー、および高振幅であるオーディオに基づいて、ユーザー116−1が拍手していると判定する。状態モジュール106は、拍手と、喝采のような他の状態との間で、腕の動きの種類(簡潔にするために以上では示されなかった)に基づいて、区別することができる。同様に、時点4において、状態モジュール106は、腕の動き、およびユーザー116−1に起因する高振幅オーディオのために、ユーザー116−1が喝采していると判定する。
[0048] 時点5において、状態モジュール106は、ユーザー116−1が頭を動かしたことを示すセンサー・データー、20%の容貌変化(facial-feature change)、および中位の振幅のオーディオに基づいて、ユーザー116−1が笑っていると判定する。センサー・データーは、オーディオが高振幅ではなく中位の振幅であること、ならびに口を開く、および両方の眉毛を上げるというような容貌変化に基づいて、絶叫するというような異なる状態を区別するために使用することができる。
[0049] 時点6について、聴衆検知デバイス104は、生センサー・データーを処理して、処理済みセンサー・データーを供給し、この場合、顔認識処理により詳細な顔の向きについてのデーターを供給する。オーディオがないことに関連して、状態モジュール106は、詳細な顔の向きについてのデーター(ここでは、上に向かっている唇の角、および目を覆う瞼の量)から、ユーザー116−1が微笑んでいると判定する。
[0050] 時点7において、状態モジュール106は、ユーザー116−1に骨格の動きがあり、聴衆検知デバイス104から離れるように動いたことを示すセンサー・データーに基づいて、ユーザー116−1が退屈した(departed)と判定する。センサー・データーは、骨格または頭部読み取り値あるいは体熱シグネチャーがもはや受信されていないことから、聴衆検知デバイス104がユーザー116−1の存在を検知しないというような場合に、これを直接示すこともできる。
[0051] 時点8において、状態モジュール106は、ユーザー116−1の顔の向きが一定の期間変化しなかった(例えば、ユーザーの目が瞬かなかった)ことを示すセンサー・データー、および安定して遅い呼吸回数に基づいて、ユーザー116−1が眠っていると判定する。
[0052] これら8通りのセンサー読み取り値は、説明の目的に限った、簡略化した例である。センサー・データーは、本明細書の他の箇所で注記したように、広範なデーターを含むことができる。更に、1秒の端数毎に聴衆を測定したセンサー・データーを受信することにより、メディア・プログラムの提示の間における数十、数百、および数千もの期間についての詳細なデーターを提供することができ、これらから状態または他のメディア反応を判定することができる。
[0053] 方法400に戻り、ブロック404では、ユーザーの状態に加えて、人口統計学的属性、識別、および関心度を判定することができる。状態モジュール106は、人口統計学的属性または識別を判定するためのセンサー・データーを判定または受信することができ、あるいは聴衆検知デバイス104から、人口統計学的属性および識別を受けることができる。説明中の例を続けると、ユーザー116−1についてのセンサー・データーは、ユーザー116−1がジョン・ブラウンであること、ユーザー116−2がリディア・ブラウンであること、そしてユーザー116−3がスーザン・ブラウンであることを示すことができる。または、センサー・データーは、例えば、ユーザー116−1が身長6フィート4インチの男性である(骨格の向きに基づいて)ことを示すこともできる。センサー・データーは、聴衆におけるユーザー毎に別々に起因するセンサー・データーの部分と共に受信されるのでも、この部分を示す情報を含むのでもよい。しかしながら、この現在の例では、聴衆検知デバイス104は、3組のセンサー・データーを供給し、各組がユーザーの識別をセンサー・データーと共に示すと仮定する。
[0054] また、ブロック404では、本技法は、聴衆または聴衆におけるユーザーの関心度を判定することもできる。注記したように、この判定は、ユーザーの状態の判定程詳しくなくても可能であるが、それでも有用である。以上の例について、ユーザー116−2(リディア・ブラウン)についてのセンサー・データーが受信され、このセンサー・データーが頭および骨格の向きだけを含むと仮定する。
Figure 0006291481
[0055] 状態モジュール106は、このセンサー・データーを受信し、以下の対応する関心度をリディア・ブラウンについて判定する。
Figure 0006291481
[0056] 時点1、2、7、および8において、状態モジュール106は、ユーザー116−2の頭がLCDディスプレイを直接見るときよりも5度未満ずれていることを示すセンサー・データー、および上胴体が下胴体よりも前に出ている骨格の向き(リディアはメディア提示に向かって身を乗り出していることを示す)に基づいて、リディアはこれらの時点では、「信じられない家族」に深い関心があることを示す。
[0057] 時点3において、状態モジュール106は、リディアがもはや前に身を乗り出していないことから、リディアの関心度レベルが落ちたと判定する。時点4において、状態モジュール106は、リディアが「信じられない家族」をほぼ真っ直ぐに見続けているがリディアは後ろにもたれかかっていることに基づいて、リディアの関心度が更に中位に落ちたと判定する。
[0058] 時点5および6において、状態モジュール106は、それぞれ、リディアが未だ後ろにもたれかかっており、多少視線を逸らし(16度)、次いで大きく視線を逸らした(37度)ことに基づいて、リディアの関心度が弱まり、中位〜浅い関心度に、次いで浅い関心度に落ちたと判定する。尚、時点7において、リディアが素早く深い関心度に戻ることに注意されたい。これは、コンテンツが刺激的である、または言い換えると魅力的であることがわかったことを示すので、メディア作成者には多分興味があるであろう。
[0059] 方法400は、直接ブロック402からブロック406に、あるいはブロック404からブロック406またはブロック408に進むことができる。ブロック404からブロック406に進む場合、本技法は、提示されたメディアのタイプ、およびユーザーの関心度または状態に基づいて、興味レベルを判定する。ブロック402からブロック406に進む場合、本技法は、必ずしも最初にまたは独立してユーザーの関心度または状態を判定することなく、提示されたメディアのタイプおよびユーザーのセンサー・データーに基づいて、興味レベルを判定する。
[0060] ユーザー116−1および116−2についての以上の例を続ける。ブロック406において、ブロック404でユーザー116−1(ジョン・ブラウン)について状態モジュール106によって判定された状態を受信したと仮定する。ジョン・ブラウンについての状態、およびメディア・プログラムについての情報に基づいて、興味モジュール108は、「信じられない家族」に対する、全体的なまたは経時的な興味レベルを判定する。ここでは、「信じられない家族」が、アドベンチャーおよびコメディー双方のプログラムであり、この映画の一部にこれらのメディア・タイプの1つがあることの印が付けられていると仮定する。簡素化するが、時点1および2にはコメディーの印が付けられ、時点3および4にはアドベンチャーの印が付けられ、時点5および6にはコメディーの印が付けられ、時点7および8にはアドベンチャーの印が付けられていると仮定する。状態モジュール106によって判定された状態を再度辿って、以下のことについて再度検討する。
Figure 0006291481
[0061] これらの状態に基づいて、状態モジュール106は、時点1について、ジョン・ブラウンは時点1におけるコンテンツには中位〜低い興味があると判定する。これがアドベンチャー・タイプまたはドラマ・タイプであったなら、状態モジュール106は、代わりに、ジョン・ブラウンが深い興味があると判定したであろう。しかしながら、ここでは、コンテンツがコメディーであり、つまり笑いまたは類似の状態を誘い出すことを意図しているため、興味モジュール108は、ジョン・ブラウンが時点1において中位〜低い興味を有すると判定する。同様に、時点2について、興味モジュール108は、ジョン・ブラウンの状態が笑うでも微笑むでもなく、視線を逸らしているので、彼は時点2において低い興味を有すると判定する。
[0062] 時点3および4において、興味モジュール108は、これらの時点ではアドベンチャー・タイプであること、ならびに拍手および喝采の状態に基づいて、ジョン・ブラウンが高い興味レベルを有すると判定する。時点6において、コメディ・タイプおよびジョン・ブラウンが微笑んでいることに基づいて、彼はこの時点では中位の興味を有すると判定する。
[0063] 時点7および8において、興味モジュール108は、ジョン・ブラウンが非常に低い興味を有すると判定する。ここでは、メディア・タイプはアドベンチャーであるが、この場合、関心モジュール108は、ジョン・ブラウンの興味レベルが、殆どのタイプのコンテンツに対して非常に低いと判定する。
[0064] 容易に分かるように、広告主、メディア供給業者、およびメディア作成者は、ユーザーの関心度または興味レベルを知ることから利益を得ることができる。ここでは、「信じられない家族」に対して経時的に、ジョン・ブラウンの人口統計学的属性情報と共に、興味レベルが提供されると仮定する。多数の人口統計学的に類似のユーザーからのこの情報によって、メディア作成者は、成人男性はアドベンチャー・コンテンツの一部に興味があるが、コメディー部分の殆どには、少なくともこの人口統計的属性グループには、興味がないことを習得することができる。
[0065] 更に詳細な例として、図5について検討する。図5は、メディア・プログラムの一部における40の時間期間504に対する興味レベル502を有する時間ベース・グラフ500を示す。ここでは、メディア・プログラムが、時点18から30において、他のメディア・プログラム、即ち、広告を含む映画であると仮定する。興味モジュール108は、図示のように、ユーザーが中位の興味レベルから開始し、次いで時間期間18までは中位および中位〜高い、高い、そして非常に高いレベルの間で上下すると判定する。時間期間18から22を占める(cover)最初の広告の間、興味モジュール108は、ユーザーが中位〜低い興味レベルを有すると判定する。しかしながら、時間期間23から28では、興味モジュール108は、ユーザーが非常に低い興味レベルを有すると判定する(何故なら、彼は、例えば、視線を逸らしてしゃべっているまたは部屋から出て行ったからである)。しかしながら、時間期間28から32を占める最後の広告では、興味モジュール108は、時間期間29から32、即ち、この広告の殆どに対してユーザーは中位の興味レベルを有すると判定する。
[0066] これは貴重な情報になり得る。ユーザーは最初の広告の間は部屋の中におり、中間の広告および最後の広告の開始まで部屋を離れ、そして戻って来て、最後の広告の殆どに対して中位の興味があった。一方、従来の手法によるこの興味の解像度および精度は、映画を見た人の内何人が実際に広告を見たのか、どの広告を見たか、そしてどの位の興味量で見たのかについて、何の情報も提供しそうもない。この例が視聴する大衆の共通する傾向である場合、ブロックの中央にある広告に対する料金は下がり、他の広告料金も同様に調節されよう。または、広告主およびメディア提供業者は、例えば、2つの広告だけを有する、もっと短い広告ブロックを再生することを学習するかもしれない。また、興味レベル502は、時点7における非常に高い興味レベル(例えば、格別に魅力的な映画の場面)および時間期間35〜38における漸減する興味等によって、映画自体の部分についての貴重な情報も提供する。
[0067] 尚、場合によっては、関心度レベルは有用であるが、状態および興味レベルよりも有用でなく精度も高くないことを注記しておく。例えば、状態モジュール106は、関心度レベルのみについて、ユーザーの顔が遮られており(ふさがれており)したがってメディア・プログラムを見ていない場合、ユーザーは関心がないと判定するかもしれない。ユーザーの顔がユーザーの手によって塞がれており(骨格の向き)、オーディオが高音量オーディオを示す場合、状態モジュール106が状態を判定するとき、ユーザーが悲鳴を上げている(screaming)と判定するかもしれない。悲鳴状態は、コンテンツがホラーまたはサスペンスであることと併せて、非常に高い興味レベルを示す。これは、興味レベルが関心度レベルよりも顕著に異なり得る場合の一例に過ぎない。
[0068] 先に注記したように、方法400は、ブロック402からブロック406に直接進むこともできる。このような場合、興味モジュール108は、単独でまたは状態モジュール106と共同して、メディアのタイプ(メディア・プログラムの異なる部分に対する多数のメディア・タイプを含む)およびセンサー・データーに基づいて、興味レベルを判定する。一例として、興味モジュール108は、時点4におけるジョン・ブラウンについてのセンサー・データーに対して、ジョン・ブラウンが時点4において高い興味レベルを有すると判定することができる。このセンサー・データーは、骨格の動き(腕および身体)、高振幅オーディオ、およびコメディー、体操、論争系トーク・ショー(conflict-based talk show)、アドベンチャー系ビデオ・ゲーム、ツイート、またはホラー・タイプを示す。逆に、興味モジュール108は、ドラマ、メロドラマ、またはクラシック音楽についての時点4における同じセンサー・データーに対して、ジョン・ブラウンは時点4において低い興味レベルを有すると判定することができる。これは、センサー・データーに基づいて、最初に関心度レベルや状態を判定することなく行うことができるが、関心度レベルや状態の判定を行ってもよい。
[0069] ブロック404または406の後に、ブロック408において、人口統計学的属性、識別、関心度、状態、および/または興味レベルを供給する。状態モジュール106または興味モジュール108は、この情報を、インターフェース・モジュール110、履歴モジュール216、広告モジュール220、および/または部分モジュール224、ならびにその他というような種々のエンティティに提供することができる。
[0070] メディア反応が判定された広告の提示後にこの情報を広告主に提供すると、メディア・プログラムの間に示された彼らの広告の価値を広告主が測定することを可能にするのに有効であり得る。この情報をメディア作成者に提供すると、類似のメディア・プログラムまたはその一部の潜在的な価値をメディア作成者が評価することを可能にするのに有効であり得る。例えば、メディア作成者が、メディア・プログラムを一般大衆に販売開始する前に、受けが悪いメディア・プログラムの部分を判定し、こうしてメディア・プログラムを変更してそれを改良することができる。
[0071] この情報を格付けエンティティに提供すると、この格付けエンティティがユーザーに対してこのメディア・プログラムを自動的に格付けすることを可能にするのに有効であり得る。メディア・コントローラーのような更に他のエンティティが、メディア制御および提示を改良するために、この情報を使用することもできる。例えば、聴衆の内部屋から退出したユーザーの全てに応答して、ローカル・コントローラーがメディア・プログラムを一時停止することもできる。
[0072] メディア反応を履歴モジュール216に供給すると、履歴モジュール216が反応履歴218を構築し更新することを可能にするのに有効であり得る。履歴モジュール216は、メディア・プログラムに対する各組のメディア反応が受けられた1つまたは複数のコンテキストに基づいて、反応履歴218を構築することができ、またはメディア反応は、全体的にまたは部分的に、コンテキストを考慮して(factor)メディア反応に入れることもできる。このように、ユーザーが仕事後に水曜日の夜にテレビジョン・ショーを見ている場合のメディア反応に対するコンテキストは、ユーザーが仕事で疲れているかもしれないことを反映するように変更されるのでもよい。
[0073] 本明細書において注記したように、本技法は、殆どのメディア・プログラムの最中に、15秒の広告またはビデオ・スニペットについてであっても、ユーザーに対して多数の状態を判定することができる。このような場合、ブロック404が、1秒周期でというように、繰り返される。
[0074] 更に、状態モジュール106は、経時的にユーザーに対して多数の状態を判定するだけでなく、特定の時点における種々の異なる状態も判定することができる。例えば、ユーザーが笑っておりしかも視線を逸らしている場合もあるが、これらの双方は、判定することができる状態であり、ユーザーの興味レベルを判定するために供給または使用することができる状態である。
[0075] その上更に、状態モジュール106および興味モジュール108のいずれかまたは双方が、センサー・データーまたはメディア・タイプに加えて、履歴データーに基づいて関心度、状態、および/または興味レベルを判定することもできる。1つの場合では、ユーザーの履歴センサー・データーが、ユーザーの関心度、状態、または興味レベルを正規化するために使用される(例えば、現メディア反応に対して動的に)。例えば、スーザン・ブラウンがメディア・プログラムを視聴しており、彼女についてのセンサー・データーが受信されると、本技法は、彼女の履歴センサー・データーに基づいて、彼女に対する関心度、状態、および興味レベルを正規化する、またはそれ以外でどのようにすればこれらを最良に判定できるか学習することができる。スーザン・ブラウンの履歴センサー・データーが、彼女が格別に表現が豊かなユーザーでもなく、声が大きいユーザーでもないことを示す場合、本技法はこの履歴について調節することもできる。つまり、典型的なユーザーが笑ったと判定するために使用される、より高いオーディオの振幅と比較して、より低い振幅のオーディオでも、スーザン・ブラウンが笑ったと判定するためには十分であると考えられる。
[0076] 他の場合では、ユーザーの過去の関心度、状態、または興味レベルについてセンサー・データーが受信されたとき、これらを他の人々についての過去の関心度、状態、または興味レベルと比較する。つまり、リディア・ブラウンは、彼女が見る殆どあらゆるメディア・プログラムに対して、他の人々の興味レベル(一般的にまたは同じメディア・プログラムに対して)と比較すると、高い興味を表すことを示すデーターに基づいて、リディア・ブラウンに対しては、より低い興味レベルを判定することもできる。これらの場合のいずれにおいても、本技法は、経時的に学習し、これによって、関心度、状態、および/または興味レベルを正規化することができる。
反応履歴を構築する方法
[0077] 先に注記したように、本技法は、種々のメディア・プログラムに対するユーザーの関心度、状態、および/または興味レベルを判定することができる。更に、これらの技法は、受動的または能動的なセンサー・データーを使用してそうすることができる。これらのメディア反応を使用して、本技法はユーザーに対する反応履歴を構築することができる。この反応履歴は、本明細書の他の箇所で明記するように、種々のやり方で使用することができる。
[0078] 図6は、メディア・プログラムに対するユーザーの反応に基づいて反応履歴を構築する方法600を示す。ブロック602において、複数組のユーザーの反応、およびそれぞれのメディア・プログラムについての情報を受ける。これら複数組の反応は、多数のそれぞれのメディア・プログラムの提示中に検知される。メディア・プログラムに対する1組の反応の一例を図5に示す。これらは、ユーザーに提示されたプログラムにおける経時的な興味レベルの尺度を示す。
[0079] それぞれのメディア・プログラムについての情報は、例えば、メディアの名称(例えば、オフィス、第104回)、およびそのタイプ(例えば、ソング、テレビジョン・ショー、または広告)、ならびに本明細書において明記される他の情報を含むことができる。
[0080] メディア反応およびそれらそれぞれのメディア・プログラムに加えて、ブロック602では、先に注記したように、メディア・プログラムが提示された間におけるユーザーに対するコンテキストも受信することができる。
[0081] 更にまた、ブロック602では、他のユーザーからのメディア反応を受けることもでき、これらによって、反応履歴を構築する。このように、履歴モジュール216は、ユーザーのメディア反応(部分的に、あるいはユーザーに対する初期または暫定的反応履歴を構築した後)に基づいて、このユーザーの反応と類似の反応を有する他のユーザーを判定することができる。履歴モジュール216は、ユーザーの反応と類似の反応を有する他の人々も判定し、ユーザーが未だ見たことも聞いたこともないプログラムに対するこれら他の人々の反応を使用して、ユーザーに対する反応履歴をリファインすることができる。
[0082] ブロック604は、複数組のユーザーの反応、およびそれぞれのメディア・プログラムについての情報に基づいて、ユーザーに対する反応履歴を構築する。注記したように、ブロック604では、他の人々の反応、履歴、コンテキスト等を使用して、ユーザーの反応履歴を構築することもできる。この反応履歴は、本明細書の他の箇所で説明する実施形態において、ユーザーが楽しめそうなメディア・プログラム、ユーザーに示すと有効でありそうな広告を制御するために、および本明細書において特筆した他の目的のために使用することができる。
現メディア反応に基づいて広告を提示する方法
[0083] 先に注記したように、本技法は、関心度、状態、および/または興味レベルというような、ユーザーの現メディア反応を判定することができる。以下の方法は、提示する広告を決定するために、現メディア反応をどのように使用することができるかについて取り組む。
[0084] 図7は、複数の可能な広告の内どの広告を提示するか決定することによることを含む、現メディア反応に基づいて広告を提示する方法700を示す。
[0085] ブロック702において、ユーザーのメディア・プログラムに対する現メディア反応を受ける。このメディア・プログラムは現在ユーザーに提示されている。現メディア反応は、コメディーの場面に対する笑い、生中継の試合のスポーツ・プレーに対する声援、ソングまたは音楽ビデオに対する踊り、ドラマの間における退屈、映画のコマーシャルを熱心に見ること、あるいは部屋で同じくニュース番組を見ている他の人に話しかけること、更にその他数多くというように、種々の種類があり、種々のメディアにおいて可能である。メディア・プログラムは、過去のメディア反応ではなく、図1のユーザー116−1のような、ユーザーに現在提示中のものであるが、同じメディア・プログラムの間に以前に作られた反応履歴または他の現メディア反応も、最新の現メディア反応に加えて、使用することもできる。
[0086] 一例として、図8について考える。図8は、時間基準状態グラフ800において示される、コメディー・プログラム(オフィス、第104回)が提示中のときの、このプログラムの一部に対する現メディア反応を示す。ここでは、23個のメディア反応802が示され、これらのメディア反応は、広告モジュール220によって状態モジュール106から、アメリア・ポンド(Amelia Pond)と称するユーザーについて受けられた状態である。視覚的に簡潔にするために、時間基準状態グラフ800は、4つの状態のみ、即ち、笑い(
Figure 0006291481
で示す)、微笑み(
Figure 0006291481
で示す)、興味あり(
Figure 0006291481
で示す)、および退屈(
Figure 0006291481
で示す)を示す。
[0087] ブロック704は、メディア・プログラムに対する現メディア反応に基づいて、複数の可能な広告から決定広告(determined advertisement)を決定する。ブロック704は、現メディア反応だけでなく他の情報にも基づいて、どの広告をいつ示すか決定することもできる。他の情報とは、ユーザーの反応履歴(例えば、アメリア・ポンドについての図2の反応履歴218)、現メディア反応についてのコンテキスト(例えば、アメリア・ポンドの場所は日が照っており、彼女は丁度学校から帰宅したばかりである)、ユーザーの人口統計学的属性(例えば、アメリア・ポンドは、英語を話し、ワシントン州、シアトル(USA)に住む16才の女子である)、メディア・プログラムのタイプ(例えば、コメディー)、または聴衆における他のユーザーのメディア反応(例えば、アメリア・ポンドの兄弟、カルビン・ポンドがある方法で反応した)等である。ブロック704は、広告が示される前のプログラムにおいて示された最後の場面のような、現メディア反応に続いて直ちに示す広告を決定することができるが、代わりに、ブロック704が、広告の直前ではない現メディア反応を使用してもよく、または最後の6回のメディア反応等のような、複数の現メディア反応を使用してもよい。
[0088] 説明中の実施形態を続けると、現メディア反応が図8の反応804であり、アメリア・ポンドが「オフィス」というショーの現在の場面で笑っていると仮定する。また、15秒で終わるこの場面の終端において、第1広告ブロック806が開始すると仮定する。この第1広告ブロック806は、長さが1分であり、2つの30秒広告、1つは1番広告808、そしてもう1つは2番広告810を含むことが予定される。
[0089] また、この場合、第1広告主が既に1番広告808の権利を購入しており、このスポットには、3つの異なる可能な広告が既に用意されており、現メディア反応に基づいて、その内の1つが再生されると仮定する。つまり、広告モジュール220は、最初に、図2または図3の広告222双方において3つの可能な広告があり、これが適していることを確認する。ここでは、広告主は、プログラムが「オフィス」であること、そしてそれが第104回であることを既に知っていた。このプログラムは最初に視聴されており、したがって、他のユーザーの他のメディア反応はプログラム全体に対して記録されていないと仮定する。しかしながら、このプログラム全体についての情報に基づいて、現メディア反応が笑いまたは微笑みである場合に、1つのプログラムが再生するのに適していると指示され、反応が退屈である場合に1つ、他の全ての状態に対して他の1つが示される。広告主が大きな自動車製造会社であり、第1広告(笑いまたは微笑みに対する)は楽しく敏捷なスポーツ・カーに対するものであると仮定し、第2広告は、ユーザーが部屋から出て行った場合に再生されるので、ユーザーが広告が聞こえる距離以内にいることを望んで、この製造会社の長所(例えば、Desoto社の車は速い、Desoto社の車は楽しい、Desoto社の車はお買い得だ)を反復的にそして音を集中させて(audio-focused)述べることを仮定し、そして第3広告は人気のあるそして実用的な家庭向き自動車に対するものであると仮定する。
[0090] 尚、これは、現メディア反応を使用し、プログラムについてのタイプまたは一般的情報に部分的に基づく、比較的単純な事例であることを注記しておく。広告主が、代わりに、多くの現メディア反応や、ユーザーについての人口統計学的属性や、ユーザーの反応履歴に対して20本の広告を用意することもあり得る。すると、広告モジュール220は、ユーザーが34および50才の間の年齢の男性であることに基づいて、20本の広告の内5本が適している可能性があると判定し、この年齢層の男性にとっては総合的に相応しい販売会社ではない製造会社によって販売される種々の自動車を除外する。また、広告モジュール220は、このユーザーが釣り番組およびオート・レース番組に対して積極的に反応したことを示すユーザーの反応履歴に基づいて、これら5本の内2本が更に適していることを判定し、したがってトラックおよびスポーツ用多目的車を示すこともできる。最後に、広告モジュール220は、ユーザーがプログラムに非常に没頭していたことを示すユーザーの現メディア反応に基づいて、これら2本の内どちらを提示するか決定することができ、こうして、このユーザーは十分な注意を払ってトラックの詳細を評価すると仮定して、詳細が少なく(less-detailed)文体重視の(more-stylistic)広告ではなく、トラックについての詳細に入るトラックの広告を示す。
[0091] ブロック706では、メディア・プログラムが提示される現提示期間の間、またはメディア・プログラムの提示を完了した直後に、決定広告を提示させる。ブロック706では、広告を提示することによって、または図2のメディア提示デバイス102のような提示エンティティに、決定広告が提示されることを示すことによって、決定広告を提示させてもよい。現提示期間は、メディア・プログラムを提示するのに十分な時間量であるが、以前に決定された数の広告を提示するのに十分な時間量、または広告を提示するための時間量も含んでもよい。
[0092] アメリア・ポンドに関する説明中の実施形態を終了するにあたり、再度図8について考える。ここでは、広告モジュール220が、図2のメディア提示デバイス102に、アメリアの現メディア反応が笑いであることに基づいて、楽しく、敏捷なスポーツ・カーについての第1広告を提示させた。
[0093] 広告モジュール220は、最新のメディア反応以外のメディア反応をその判定の基準にすることもでき、これらの反応は、メディア・プログラムに対して現行のものであるのでもよく、あるいはメディア・プログラムまたはユーザーの反応履歴の基になるもののような、他のプログラムの現提示期間に対して現行のものであるのでもよい。また、現メディア反応が、プログラムに対してではなく、現提示期間中における反応に対して受けられたものであってもよい。つまり、現提示期間以内に広告ブロックにおいて示された以前の広告に対するユーザーの反応も、どの広告を提示するか決定するために使用することができる。
[0094] 方法700が繰り返されてもよく、つまり、広告反応812において示される「興味状態」に少なくとも部分的に基づいて、2番広告810が選択されてもよい。このように、方法700は、現提示期間中に、種々の広告および現反応について、反応がプログラムに対するのかまたは広告に対するのかには関係なく、繰り返すことができる。
[0095] 他の広告反応も示され、第2広告反応814、第2広告ブロック820の3番広告818に対する第3広告反応816、および4番広告824に対する第4広告反応822が示されている。尚、広告モジュール220によって提示されることが決定された第3広告は、部分的に退屈状態826に基づくこと、そして第3広告が提示されると決定されたのは、第3広告に対してユーザーが笑ったことに基づくことを注記しておく。これらは、提示する広告を決定するために本技法によって現メディア反応を使用することができる多くの例の一部に過ぎない。
[0096] オプションとして、本技法は、メディア・プログラムに対する現メディア反応に基づいて広告に対する値付け(pricing)を決定することができる。つまり、ユーザーが現在退屈している場合広告の価格を下げることができ、ユーザーが現在笑っているまたそうでなければ没頭している場合価格を上げられることができる。つまり、本技法は、メディア反応に基づいて広告の価格を設定することができ、広告を提示するための広告主の入札とは独立することを含む。このような場合、本技法は、最高入札構造ではなく、どの広告主が価格に同意するかまたは既に同意しているかに基づいて、あるいは入札と決定値付けの何らかの組み合わせに基づいて、広告を提示することもできる。入札と決定値付けの組み合わせの一例に、メディア反応に基づいて本技法によって設定される寄りつき価格があり、この寄りつき価格に基づいて広告主から入札が行われる。
[0097] 更にオプションとして、本技法は、ユーザーが明示的に広告と対話処理することを可能にすることもできる。例えば、広告が、申し出(offer)を容易にするために、要求されるメディア反応に対する明示的要求を含んでもよい。つまり、詳細なトラックの広告では、ユーザーが詳細な販売パンフレットをユーザーの電子メールまたは自宅住所に送らせるためには、ユーザーに彼または彼女の手を上げるように求めるテキストまたはオーディオを含むこともでき、または宅配ピザ・チェーン店の広告が、半額の宅配ピザを得るために、現在再生されているフットボール・ゲームの間に声援を送ることを求めることもできる。ユーザーが彼または彼女の手を上げると、本技術はこの状態を関連する広告主に渡し、次いで、この広告主が、広告内部に表示するために、ユーザーの最寄りの店舗の電話番号を、ピザ半額のコードと共に返送することができる。
[0098] 図9は、広告主からの入札を含む、現メディア反応に基づいて広告を提示する方法900を示す。
[0099] ブロック902において、ユーザーに現在提示中のメディア・プログラムに対するユーザーの現メディア反応を広告主に供給する。ブロック902では、状態モジュール106、興味モジュール108、および/または広告モジュール220によってというように、以上で説明した種々のやり方で受け取られたまたは判定された現メディア反応を供給することができる。また、ブロック902では、ユーザーの反応履歴またはその一部、ユーザーについての人口統計学情報、ユーザーがメディア・プログラムを提示されるコンテキスト、またはメディア・プログラムについての情報というような、他の情報を提供することもできる。
[00100] 例えば、図10について考える。図10は、通信ネットワーク304を介して、人口統計学的属性1002、反応履歴の一部1004、現メディア反応1006、およびメディア・プログラムについての情報1008を広告主1010(それぞれ、第1、第2、および第3広告主1010−1、1010−2、および1010−3を含むことが示される)に供給する広告モジュール220を示す。
[00101] ここで、ユーザーが既婚で子供が1人いる33才の女性であることを人口統計学的属性1002が示すと仮定する。また、反応履歴の一部1004が、このユーザーの識別、即ち、メロディ・ポンド、ならびにサイエンス・フィクション・プログラム、オリンピック・ゲームに対する彼女の好み、ならびにムービー・トレーラー、靴の販売、およびトライアスロンの広告に対する以前の受動的な反応を示すと仮定する。ここでは、現メディア反応1006が失望(悲しい状態)を示し、メディア・プログラムについての情報1008が、プログラムが水泳大会であり、現メディア反応が悲しい状態であった最後のセクションが、マイケル・フェルプスが国際水泳大会においてオーストラリア人の水泳選手イアン・ソープに次いで2着に入ったことを示したと仮定する。
[00102] ブロック904において、広告主からの入札を受ける。この入札は、メディア・プログラムが提示される現提示期間においてユーザーにそれぞれの広告を提示する権利に対するものである。この権利は、現メディア反応に対する場面またはセクションが完了した直後、および他の広告が示される前というように、直ちに広告を提示するためでもよい。この権利は、代わりに、例えば、5分後のブロックにおける場面または広告の後における第2の広告というような、現提示期間の後の部分のためでもよい。
[00103] 広告が示される直前にユーザーが悲しい状態であったという以上の例について考える。ある広告主は、この状態にあるユーザーに広告を提示することに余り関心がないので、彼らの広告を示す権利に低く入札するが、他の広告主には、悲しい状態にある人には彼らの広告が一層効果的であると考えるものもいる。更に、広告主は、ユーザーの人口統計学的属性、反応履歴、および彼らが見ているプログラムも考慮し、これらにも基づいて価格を指定する可能性もある。生命保険または投資計画を販売する広告主は、例えば、カーペット清掃製品を販売する広告主よりも、悲しい状態の直後、そして幼児がいる人に示す権利には高く入札する可能性が高い。
[00104] この例について、3つの広告主1010が全て広告を示す権利に入札し、各入札と共に、広告222の内1つの広告のインディケータまたは広告を引き出すユニバーサル・リソース・ロケータと共にというように、広告モジュール220に広告を提示させるのに十分な情報を含むと仮定する。
[00105] ブロック906では、これらの入札の1つに関連する広告の1つを、メディア・プログラムが提示される現提示期間中にユーザーに提示させる。ブロック906では、どの入札が最高か判定することに応答して、広告を示すことを選択してもよいが、最高の入札が必ずしも要求される訳ではない。この例を終了するにあたり、広告モジュール220は、最高の入札に関連する広告をユーザーに提示させる。
[00106] 以上で説明したやり方に加えて、本技法は、メディア・プログラムの提示中に存在する追加のユーザー数を示すこともでき、場合によっては、彼らの現メディア反応等を含み、これによって入札の規模が拡大すると思われる。
[00107] 更に、広告モジュール220は、示された広告に対するメディア反応を受け、この反応に基づいて、その広告に対して行われた入札に対して、広告の価格を下げるまたは上げることもできる。
[00108] 方法900は、方法700の例において説明したのと同様に、以前の広告に対する現メディア反応に基づくことも含んで、今後の広告のために、全体的にまたは部分的に繰り返すことができる。
[00109] 図11は、現メディア反応が生じた場面の直後を含む、現メディア反応に基づいて広告を提示する方法1100を示す。
[00110] ブロック1102において、ユーザーに提示されたメディアの場面に対する現メディア反応、メディア・プログラムのタイプ、およびユーザーに関連する反応履歴に基づいて、複数の可能な広告から決定広告(determined advertisement)を決定する。これを行うことができるやり方は、以上で説明した。尚、広告主は、笑う反応の直後に広告を入れる毎に5セントというように、ある種の反応の後に提示される彼らの広告に対して入札するまたは前払いすることもできる。更に、広告がユーザー毎に入れられるのではなく、代わりに全体的にまたはグループ毎に(例えば、ある地理的エリア内にいる人々)入れられる場合、入札または前払いは、代わりに、積極的な反応のパーセンテージ等に基づいて重み付けされてもよい。
[00111] ブロック1104では、メディア・プログラムの場面の提示が完了した直後に、決定広告を提示させる。
現在提示中のメディア・プログラムの後来部分を決定する方法
[00112] 先に注記したように、本技法は、関心度、状態、および/または興味レベルというような、ユーザーの現メディア反応を判定することができる。以下の方法は、現在提示中のメディア・プログラムの間に提示する後来部分を決定するために、現メディア反応をどのように使用することができるかについて取り組む。
[00113] 図12は、メディア・プログラムのユーザーへの提示の間に受動的に検知されたセンサー・データーに基づいて判定されたユーザーの現メディア反応に基づくことを含む、現在提示中のメディア・プログラムの後来部分を決定する方法1200を示す。
[00114] ブロック1202では、ユーザーへのメディア・プログラムの提示中に、メディア・プログラムの一部に対するユーザーの現メディア反応を受ける。このメディア反応は、提示中に受動的に検知されたセンサー・データーに基づいて判定される。
[00115] 本明細書の他のところで注記したように、現メディア反応は、コメディーの場面に対する笑い、生中継の試合のスポーツ・プレーに対する声援、ソングまたは音楽ビデオに対する踊り、ドラマの間における退屈、映画のコマーシャルを熱心に見ること、あるいは部屋で同じくニュース番組を見ている他の人に話しかけること、更にその他数多くというように、種々の種類があり、種々のメディアにおいて可能である。メディア・プログラムは、以前に提示されたメディア・プログラムではなく、図1のユーザー116−1のようなユーザーに現在提示中のものであり、したがって、この反応は過去のメディア反応である。過去のメディア反応に基づく反応履歴は、しかしながら、後来部分を決定するために、現メディア反応と併せて使用することもできる。また、同じメディア・プログラムの間に早期に行われた他の現メディア反応も共に使用することができ、または最新のメディア反応の代わりに使用することもできる。
[00116] メディア反応は、メディア・プログラムの現提示中に受けられることにより現行のものであるが、直ちにまたは瞬時に受けられる必要はなく、メディア・プログラムに対する最新のメディア反応でなくてもよい。つまり、メディア・プログラムの第4部分に対する現メディア反応が、第6部分の間に受けられ、メディア・プログラムにおいて提示する第15部分を決定するために使用されてもよい。
[00117] 一例として、図13について考える。図13は、リモート・デバイス302を示し、そこに部分モジュール224が具体化される。部分モジュール224は、人口統計学的属性1032、反応履歴の一部1304、現メディア反応1306、およびメディア・プログラムについての情報1308を、図2の計算デバイス202から受信する。部分モジュール224は、このデーターを通信ネットワーク304を介して受信し、応答して、計算デバイス202に、このデーターに関連するユーザーに、メディア・プログラムの特定の後来部分を提示させる。
[00118] また、一例として、図8について考える。図8は、時間基準状態グラフ800において示される、コメディー・プログラム(オフィス、第104回)が提示中のときの、このプログラムの一部に対する現メディア反応を示す。図8では、23部分に対して23個のメディア反応802が示されるが、この例では、第14、第15、および第16部分において微笑む状態を表すメディア反応828、830、および832について考える。ここでは、これらが3つの現メディア反応であり(メディア反応832が最新である)、第17〜第23部分が未だ提示されていないと仮定する。また、人口統計学的属性1302が、「オフィス」を見ている人が23才の女性であることを示し、反応履歴の一部1304が、この人は通常コメディーが嫌いであるがサイエンス・フィクション・ムービーおよびドラマが好きであり、現メディア反応1306が、先に記した3つの微笑む状態を含むことを示し、メディア・プログラムについての情報1308が、このプログラムが「オフィス」第104回であること、そして現メディア反応が第14、第15、および第16部分に対するものであることを示す。
[00119] ブロック1204において、メディア反応およびプログラムの一部に基づいて、ユーザーに提示するためのメディア・プログラムの後来部分を決定する。メディア・プログラムの後来部分は、この一部よりもメディア・プログラムにおいて後から出てくる。この決定を行うときに、部分モジュール224は十分な情報を受けることができ、または追加の情報を得るためにその情報を使用することができる。つまり、メディア・プログラムについての情報1308が3つの部分を示し、部分モジュール224が、これらの部分がショーにおける人物パム(Pam)を展開するが、その他の点では冗談であるか、コメディー風になることを意図する場面に関係すると判定すると仮定する。人の反応(微笑み)、およびこれらの部分の主題(パムの人物展開)に基づいて、部分モジュール224は、種々の可能な場面の間で、例えば、プログラムの終端において示すものを決定することができる。部分モジュール224は、図13に記したように、この決定を他の情報に基づくこともできる。つまり、部分モジュール224は、23才の女性がコメディーを一般的には嫌いであるがパムについての場面にわたって微笑むことから、ドワイト(Dwight)と称する人物が紙製のトラック(paper truck)から落ちる体当たりのユーモアがある場面よりも、他の人物展開場面を楽しむであろうと判断することができる。ここでは、部分214が「オフィス」の終了時、ここでは第23部分に示すために2つの可能な後来部分を含む。即ち、トラックから人物が落ちるものと、パムについてのものである。
[00120] ブロック1206では、メディア・プログラムの後来部分をメディア・プログラムの現提示中にユーザーに提示させる。部分モジュール224は、ローカルにまたはリモートに作用することができ、提示する部分を示すまたは供給することができる。つまり、部分モジュール224は、コンテンツ部分または指示1310を通信ネットワーク304を介して計算デバイス202に渡すことによって、この後の部分の提示をさせることができる。部分モジュール224は、指示を受けると、計算デバイス202にローカルに格納された種々の既に格納されている部分から、この指示に基づいて選択することができる。
[00121] 説明中の例を終了するにあたって、図13のリモート・デバイス302がセット・トップ・ボックス202−4を介してメディア・プログラムをストリーミングしており、こうして、第23部分において、ドワイトについての場面ではなくパムについての場面をストリーミングすると仮定する。
[00122] 方法1200についての以上の例は1人のユーザーに関するが、他のユーザーのメディア反応も使用することができ、このユーザーに対して物理的にローカルな他の人々を含む(例えば、23才の女性ユーザーと一緒に同じ部屋で見ている)。更にまた、同じ人口統計学的グループの他の構成員(例えば、18〜34才の女性)または聴衆全般(例えば、米国およびカナダの東標準時間ブロックにおける最初の上映(showing)中に、見ている全員(everyone watching)についてメディア反応が受けられる)というような、ユーザーと一緒に見ていない他のユーザーのメディア反応も使用することができる。
[00123] 尚、このユーザーおよび他のユーザーのメディア反応をリアル・タイムで受けて、現在提示中のメディア・プログラムの後来部分を決定するために使用できることを注記しておく。つまり、提示中にそしてリアル・タイムでプログラムを人々に合わせて個別に作成することによって、プログラムの品質を高めることができる。この例では、メディア・プログラムは、以前に用意された部分に基づいて個別に作成されるが、これは必須ではない。生のプログラムもリアル・タイムで変更することができ、深夜のコメディー・ショーが、プログラムにおいて早期に提示された以前のスキットの良い反応に基づいて、スキットを実行することを選択するというようにしてもよい。
[00124] 図14は、後来部分が明示的に要求されるメディア反応に対する応答であるときを含む、現在提示中のメディア・プログラムの後来部分を決定する方法1400を示す。
[00125] ブロック1402において、メディア・プログラムの間に、要求メディア反応の明示的要求を提示するか、またはその提示を行わせる。明示的要求は、メディア・プログラムの一部であり、要求メディア反応に対する応答を示し、要求メディア反応はユーザーに対する物理的変化である。メディア反応は、手を上げる、声援を送る、微笑む等というような、説明したものの内の1つ以上とすることができる。
[00126] 更に、明示的要求は、メディア・プログラムの一部として、そしてメディア・プログラムの内部で提示することができる。つまり、広告が、自動車の試験運転を予約する(arrange)ためにはユーザーの手を上げるようにユーザーに求めるテキストまたはナレーターを、その広告の一部に組み込むことができる。あるいは、リアリティ・ショー(reality show)が、生放送であれ収録されたものであれ、どの人物がショーにおいて残るか決定するために、人物に対して声援を送るかまたは罵声を浴びせるか聴衆に求める司会者を含むのでもよい。あるいは、サスペンス映画が、ユーザーに、彼らが逃げるか、隠れるか、または悪人と戦うか、ムービーにおけるある人物に尋ねさせるのでもよい。
[00127] あるいは、明示的要求は、メディア・プログラムの一部や内部に提示するのではなく、メディア・プログラム上に重畳されるポップアップ・ウィンドウと共に提示することもできる。
[00128] 応答自体は、クーポン、あるいは製品またはサービスについての情報等というような、広告について先に記したものと類似のものとすることができ、広告内でもまたは広告以外のメディア・プログラムでもよい。
[00129] 加えてまたは代わりに、応答は、プログラムにおいて後にメディアの異なる部分を提示することを含んでもよい。リアリティ・ショーが、人物または状況についてもっと多くを提示するために明示的にメディア反応を要求するのでもよく、「乞食を助けるジンジャーの冒険についてもっと見たいなら片方の手を振って下さい、バートのバイク店探訪についてもっと見たいならば両手を振って下さい、またはスージーのバートについてのジンジャーとの戦いについてもっと見たいならば声援を送って下さい」というようにしてもよい。この例では、応答は3つの部分を有し(または3つの応答と見なすことができ)、メディア反応毎に、ここでは、ジンジャーの冒険、バートの探訪、またはスージーの戦いに対して1つの応答または副応答(sub-response)がある。
[00130] ブロック1404では、提示の間に検知され明示的要求に一致する要求メディア反応(requested media reaction)を受ける。要求メディア反応は、提示の間に受動的に検知され明示的要求の提示に一致するセンサー・データーに基づいて判定される。本技法は、要求メディア反応を他のエンティティから受けること、あるいは受動的またはそれ以外のセンサー・データーに基づいてメディア反応を判定することもできる。一実施形態では、ブロック1404は状態モジュール106によって実行される。状態モジュール106は、メディア・プログラムの間に受動的に検知されたセンサー・データーに基づいて、明示的要求を提示し、ユーザーに対する物理的変化を測定したときまたはその直後に、要求メディア反応を判定する。
[00131] ブロック1406では、要求メディア反応を受けたことに応答して、応答を実行する。オプションとしてまたは追加的に、方法1400は、ブロック1406において可能な応答を実行する前に、ブロック1408において、他のユーザーの要求メディア応答も受けたと判断し、これら他のユーザーの要求メディア反応を可能な応答の基準にする。
[00132] このような場合、部分モジュール224は、応答を実行する前に、メディア・プログラムの他の提示の間における他のユーザーの他の要求メディア反応も受けたと判断する。つまり、部分モジュール224は、スージーの戦いの部分を示すことを要求するユーザーおよび他のユーザーのメディア反応に基づいて、スージーの戦いを提示するというように、他のユーザーのメディア反応を応答の基準にすることができる。他のユーザーのメディア反応は、全てのユーザー、同じ人口統計学的グループのユーザー、ユーザーの友人(ユーザーと一緒に部屋で見ているか否かには関係ない)、またはユーザーの家族(例えば、部屋において明示的要求に同様に応答している者)に対してでもよい。
[00133] またオプションとしてあるいは追加的に、方法1400はブロック1410に進むこともできる。ブロック1410では、ユーザーに関連する他のユーザーのために他の応答を実行する、他の要求メディア反応を要求する。これは、ユーザーの友人にもクーポンを送るためにはユーザーが彼または彼女の手を上げることを要求するというように、追いかけ明示的要求として提示することができる。
[00134] 要求は、ユーザー、および離れて見ている彼または彼女の友人の双方に関与してもよい。つまり、ユーザーがスージーの戦いを見ることを選択することができるが、メディア反応を行った後、部分モジュール224は、第2の要求を提示して、ユーザーが、代わりに、ユーザーの友人のリディアが以前にまたは同時に見ることを要求したもの、即ち、ジンジャーの冒険を見たいか否か尋ねたり、ユーザーの8人の友人の内5人がバートの探訪についてもっと見ることを選択したというように、彼女の友人の大部分が見ることを要求したものを見たいか否か尋ねる。
[00135] ブロック1412では、第2の要求メディア反応を受けたことに応答して、他のユーザーにも応答を提示させる。部分モジュール224は、離れて動作しているときには直接そのようにすることもでき、またはリモート・エンティティと通信して、このエンティティに応答を他のユーザーに提示させることもできる。本例を終了するに当たって、ユーザーが、彼女の一番仲が良い友人であるリディアが見ることを選択したもの、即ち、ジンジャーの冒険を選択したので、彼女とリディアが翌日学校でそれについて議論することができると仮定する。尚、ユーザーは、彼女の他の友人の殆どがバートの探訪を見ることを選択したことも知っており、したがって、彼らがそれを気に入ったか否か彼らに尋ねることを心得ている(known to)ことを注記しておく。ユーザーは、彼女の友人がバートの探訪が素晴らしかったと言った場合、プログラムを見直し、そして代わりにバートの探訪を見ることを選択することができる。
[00136] 図15は、複数のユーザーのメディア反応に基づくことを含む、現在提示中のメディア・プログラムの後来部分を決定する方法1500を示す。
[00137] ブロック1502では、複数のメディア提示デバイスから、リモート・エンティティにおいて、そして複数のメディア提示デバイスによる複数のユーザーへのメディア・プログラムの提示中に、ユーザーのメディア反応を受ける。これらのメディア反応は、複数のメディア提示デバイスにおいてメディア・プログラムの一部の間に受動的に検知されたセンサー・データーに基づく。メディア・プログラムは、生で、同時にまたは別々に複数のユーザーに提示されてもよい。図13に示すように、現メディア反応1306は、それだけで受けられてもよく、あるいは人口統計学的属性1302、反応履歴の一部1304、およびメディア・プログラムについての情報1308というような、先に注記した他の情報と共に受けられてもよいが、この場合、複数の計算デバイス202からとなる。
[00138] ブロック1504では、メディア反応およびその部分に基づいて、ユーザーへの提示のためにメディア・プログラムの後来部分を決定する。メディア・プログラムの後来部分は、メディア・プログラムにおいてその部分よりも後に現れる。図13に示すように、このメディア・プログラムは、図3および図13のメディア・プログラム210のように、離れて格納することができ、あるいは図2に示したように、ローカルに格納することもできる。また、本明細書において注記したように、他の情報もこの決定において使用してもよい。
[00139] メディア・プログラムは、広告のような、先に記した多くのものの内の1つとすることができる。このような場合、部分モジュール224および/または広告モジュール220は、1組の選択可能な部分(例えば、図13の部分214)の1つ以上の予め準備された部分よりも成功しそうに思われることに基づいて、この後来部分を決定することができる。つまり、土地会社についての詳細を列挙した第1部分に対して乏しい反応を示すユーザーのグループが、土地会社の詳細な説明を続けるのではなく、もっと簡素で洒落た第3部分を提示することを決定するために、使用されてもよい。複数の他の例が以上で説明された。
[00140] ブロック1506では、メディア・プログラムの後来部分をユーザーに、複数のメディア提示デバイスにおいて、そしてメディア・プログラムの提示中に提示させる。ブロック1506では、リアル・タイムで、リモート・デバイス302から複数のユーザーに複数の計算デバイス202を介してというように、以上で詳細に説明した種々のやり方でそうすることができる。
[00141] 実施形態では、複数のユーザーのメディア反応を使用して、今後のプログラムを作成する方法を決定すること、または以前に用意された今後のプログラムのどれを提示するか決定することができる。メディア提供業者が連続アドベンチャー・テレビジョン番組のために10個のタイムスロットを有する場合について考える。最初の3つのプログラムは、本技法に基づいて変更することができるいくつかの内部を有することができるが、次の7つのタイムスロット(例えば、あるシーズン(season)の複数の週)には、11回分のエピソード(episode)が用意されていると仮定する。テレビジョン・シーズンは、多くの場合、シーズン全体が前もって用意されるように構成されるため、シーズン中に大きな変更を行うことが難しい。メディア提供業者は、そのシーズンのエピソードが用意された時点で、追加のプログラム全体を用意することができるかもしれない。つまり、メディア提供業者は、最初の3回のエピソードにわたる複数のユーザーからの、これらのエピソードの複数の部分に対するメディア反応に基づいて、特定の人物が聴衆に非常に興味深いことを判定することができる。このようにすることによって、その人物に絞ったエピソードを、他のものに代わりに示すこともできる。
[00142] あるいはまたは加えて、以前に用意されたエピソードの一部が、提示することができる複数組の場面を有することもでき、したがってこれらのメディア反応に基づいてエピソードを聴衆に対して(全般的にまたは種々のグループに合わせて)個別に作成することもできる。このように、メディア反応は、変化がリアル・タイムでなくても、メディア・プログラムの後来部分を決定するために使用することができる。
[00143] 以上の説明は、現在提示中のメディア・プログラムの後来部分を決定することに関する方法、ならびに他の方法および技法について記載した。これらの方法の形態は、ハードウェア(例えば、固定論理回路)、ファームウェア、ソフトウェア、手動処理、またはこれらのあらゆる組み合わせで実現することができる。ソフトウェアの実現例は、コンピューター・プロセッサーによって実行されると、指定されたタスクを実行するプログラム・コードを表す。以上の方法例は、コンピューター実行可能命令という一般的なコンテキストで説明することができる。コンピューター実行可能命令は、ソフトウェア、アプリケーション、ルーチン、プログラム、オブジェクト、コンポーネント、データー構造、手順、モジュール、関数等を含むことができる。プログラム・コードは、コンピューター・プロセッサーに対してローカルおよび/またはリモートである1つ以上のコンピューター読み取り可能メモリー・デバイスに格納することができる。また、前述の方法は、分散型計算モードにおいて、多数の計算デバイスによって実施することもできる。更に、本明細書において説明した特徴は、プラットフォーム独立ということであり、種々のプロセッサーを有する種々の計算プラットフォームにおいて実現することができる。
[00144] これらの技法は、図1〜図3、図10、図13、および図16(デバイス1600について以下で説明する)に示すエンティティの内1つ以上において具体化することができ、更に分割、組み合わせ等も行うことができる。つまり、これらの図は、説明した技法を採用することができる多くの可能なシステムまたは装置の一部を示す。これらの図のエンティティは、一般に、ソフトウェア、ファームウェア、ハードウェア、デバイスまたはネットワーク全体、あるいはその組み合わせを表す。ソフトウェア実現例の場合、例えば、エンティティ(例えば、状態モジュール106、興味モジュール108、インターフェース・モジュール110、履歴モジュール216、広告モジュール220、および部分モジュール224)は、プロセッサー(例えば、プロセッサー(1つまたは複数)204および/または306)において実行されると、指定されたタスクを実行するプログラム・コードを表す。プログラム・コードは、CRM206および/またはリモートCRM308、あるいは図16のコンピューター読み取り可能記憶媒体1614というような、1つ以上のコンピューター読み取り可能メモリー・デバイスに格納することができる。
デバイス例
[00145] 図16は、現在提示中のメディア・プログラムの後来部分を決定する技法を実現するための、任意のタイプのクライアント、サーバー、および/または計算デバイスとして実現することができるデバイス例1600の種々のコンポーネントを示す。これらのコンポーネントについては、これまでの図1〜図15を参照して説明した。実施形態では、デバイス1600は、テレビジョン移動体計算デバイス(例えば、テレビジョン・セット・トップ・ボックス、ディジタル・ビデオ・レコーダー(DVR)等)、消費者用デバイス、コンピューター・デバイス、サーバー・デバイス、携帯用コンピューター・デバイス、ユーザー・デバイス、通信デバイス、ビデオ処理および/またはレンダリング・デバイス、アプライアンス・デバイス、ゲーミング・デバイス、電子デバイス、チップ上システム(SoC)、および/または他のタイプのデバイス、あるいはその一部の形態のように、有線デバイスおよび/またはワイヤレス・デバイスの1つまたは組み合わせとして実現することができる。また、デバイス1600がユーザー、ソフトウェア、ファームウェア、および/またはデバイスの組み合わせを含む論理デバイスを記述するように、デバイス1600を動作させるユーザー(例えば、人)および/またはエンティティとこのデバイスを関連付けることもできる。
[00146] デバイス1600は、デバイス・データー1604(例えば、受信データー、受信されているデーター、ブロードキャストを予定されたデーター、データーのデーター・パケット等)の有線通信および/またはワイヤレス通信を可能にする通信デバイス1602を含む。デバイス・データー1604または他のデバイス・コンテンツは、デバイスの構成設定値、デバイスに格納されたメディア・コンテンツ(例えば、メディア・プログラム210)、および/またはデバイスのユーザーに関連する情報を含むことができる。デバイス1600に格納されるメディア・コンテンツは、任意のタイプのオーディオ、ビデオ、および/または画像データーを含むことができる。デバイス1600は、1つ以上のデーター入力1606を含み、これらを介して、人の発声、ユーザー選択可能な入力、メッセージ、音楽、テレビジョン・メディア・コンテンツ、メディア反応、記録されたビデオ・コンテンツ、ならびにあらゆるコンテンツ・ソースおよび/またはデーター・ソースから受信された他のあらゆるタイプのオーディオ、ビデオ、および/または画像データーを含むことができる。
[00147] また、デバイス1600は通信インターフェース1608も含む。通信インターフェース1608は、シリアルおよび/またはパラレル・インターフェース、ワイヤレス・インターフェース、あらゆるタイプのネットワーク・インターフェース、モデムとして、更にはあらゆる他のタイプの通信インターフェースの内任意の1つ以上として実現することができる。通信インターフェース1608は、デバイス1600と通信ネットワークとの間に接続および/または通信リンクを設け、これによって、他の電子デバイス、計算デバイス、および通信デバイスがデバイス1600と通信する。
[00148] デバイス1600は、1つ以上のプロセッサー1610(例えば、マイクロプロセッサー、コントローラー等の内任意のもの)を含む。プロセッサー1610は、デバイス1600の動作を制御するため、そして現在提示中のメディア・プログラムの後来部分を決定する技法および本明細書において説明した他の方法を可能にするために、種々のコンピューター実行可能命令を処理する。代わりにまたは加えて、デバイス1600は、ハードウェア、ファームウェア、または固定論理回路の内任意の1つまたは組み合わせによって実現することもでき、全体的に1612で識別される処理および制御回路と関連して実装される。図示しないが、デバイス1600は、当該デバイス内部において種々のコンポーネントを結合するシステム・バスまたはデーター転送システムを含むことができる。システム・バスは、メモリー・バスまたはメモリー・コントローラー、周辺バス、ユニバーサル・シリアル・バス、および/または種々のバス・アーキテクチャーの内任意のものを利用するプロセッサー・バスまたはローカル・バスというような、異なるバス構造の内任意のものまたは組み合わせを含むことができる。
[00149] また、デバイス1600は、永続的および/または非一時的データー格納(即ち、単なる信号送信とは対照的)を可能にする1つ以上のメモリー・デバイスというような、コンピューター読み取り可能記憶媒体1614も含む。その例には、ランダム・アクセス・メモリー(RAM)、不揮発性メモリー(例えば、リード・オンリー・メモリー(ROM)、フラッシュ・メモリー、EPROM、EEPROM等の内任意の1つ以上)、およびディスク記憶デバイスが含まれる。ディスク記憶デバイスは、ハード・ディスク・ドライブのようなあらゆるタイプの磁気または光記憶デバイス、記録可能および/または再書き込み可能なコンパクト・ディスク(CD)、あらゆるタイプのディジタル・バーサタイル・ディスク(DVD)等として実現することができる。また、デバイス1600は大容量記憶デバイス1616も含むことができる。
[00150] コンピューター読み取り可能記憶媒体1614は、デバイス・データー1604、ならびに種々のデバイス・アプリケーション1618、およびデバイス1600の動作的側面に関するあらゆる他のタイプの情報および/またはデーターを格納するためのデーター記憶メカニズムを提供する。例えば、オペレーティング・システム1620は、コンピューター読み取り可能記憶媒体1614によってコンピューター・アプリケーションとして維持され、プロセッサー1610において実行することができる。デバイス・アプリケーション1618は、任意の形態の制御アプリケーションというようなデバイス・マネージャ、ソフトウェア・アプリケーション、信号処理および制御モジュール、特定のデバイスに対してネーティブなコード、特定のデバイスに対するハードウェア抽象レイヤー等を含むこともできる。
[00151] また、デバイス・アプリケーション1618は、現在提示中のメディア・プログラムの後来部分を決定する技法を実現するためのあらゆるシステム・コンポーネント、エンジン、またはモジュールも含む。この例では、デバイス・アプリケーション1618は、状態モジュール106、興味モジュール108、インターフェース・モジュール110、履歴モジュール216、広告モジュール220および/または部分モジュール224を含むことができる。
結論
[00152] 以上、特徴および/または方法に特定的な文言で、現在提示中のメディア・プログラムの後来部分を決定する技法および装置の実施形態について説明したが、添付した特許請求の範囲の主題は、必ずしも説明した具体的な特徴や方法には限定されないことは理解されてしかるべきである。逆に、これら具体的な特徴および方法は、現在提示中のメディア・プログラムの後来部分を決定する実現例(example implementation)として開示されたまでである。

Claims (10)

  1. 計算デバイスにより実行される方法であって、
    前記計算デバイスが、現在提示されているメディア・プログラムの第1部分の提示中に、前記現在提示されているメディア・プログラムの前記第1部分間に、ユーザーの受動的に検知されるセンサー・データーを受ける、ステップと、
    前記計算デバイスが、前記センサー・データーに基づき、前記現在提示されているメディア・プログラムの前記第1部分の間における前記ユーザーの状態の確率と前記ユーザーの関心度レベルを決定するステップであって、前記現在提示されているメディア・プログラムの前記第1部分の間における前記ユーザーの状態の確率と、前記ユーザーの関心度レベルが、前記ユーザーの履歴的なセンサー・データーにより正規化されて、前記ユーザーの前記状態の前記確率の決定と前記ユーザーの前記関心度レベルの決定とが、前記ユーザーに特定のものとなるようにする、ステップと、
    前記計算デバイスが、前記現在提示されているメディア・プログラムの前記第1部分の間における前記ユーザーの状態の前記確率と、前記現在提示されているメディア・プログラムの前記第1部分の間における前記ユーザーの前記関心度レベルと、前記現在提示されているメディア・プログラムの前記第1部分に関するコンテキストとに基づき、前記現在提示されているメディア・プログラムの前記第1部分の間における前記ユーザーの興味レベルを決定するステップであって、前記ユーザーの前記興味レベルが、前記ユーザーの前記履歴的なセンサー・データーにより正規化されて、前記ユーザーの前記興味レベルの決定が前記ユーザーに特定のものとなるようにする、ステップと、
    前記計算デバイスが、前記現在提示されているメディア・プログラムの前記第1部分と、前記現在提示されているメディア・プログラムの前記第1部分の間において前記ユーザーに対し高いと決定された前記興味レベルとに基づいて、前記現在提示されているメディア・プログラムの後来部分を決定するステップであって、前記現在提示されているメディア・プログラムの前記後来部分が、
    前記現在提示されているメディア・プログラムの後の部分の間に生起し、
    前記現在提示されているメディア・プログラムの現在の提示の間に、かつ
    前記現在提示されているメディア・プログラムの前記第1部分に対する類似性に基づいて前記現在提示されているメディア・プログラムの1組の後来部分のから選択される、
    ステップと、
    前記計算デバイスが、前記現在提示されているメディア・プログラムの前記後来部分を、前記現在提示されているメディア・プログラムの前記後の部分の間でかつ前記現在提示されているメディア・プログラムの前記現在の提示の間において提示させるステップと、
    を含む、方法。
  2. 請求項1記載の方法において、前記現在提示されているメディア・プログラムは、前記現在提示されているメディア・プログラムの予定された後来部分を含み、前記現在提示されているメディア・プログラムの前記後来部分を提示させることは、前記現在提示されているメディア・プログラムの前記予定された後来部分を、前記現在提示されているメディア・プログラムの前記後来部分と置き換えるように作用する、方法。
  3. 請求項1記載の方法において、センサー・データーを受けることは、前記現在提示されているメディア・プログラムが提示されるメディア提示デバイスからであり、前記現在提示されているメディア・プログラムの前記後来部分を提示させることは、前記計算デバイスが通信ネットワークを介して実行される、方法。
  4. 請求項1記載の方法であって、更に、他のセンサー・データーを受けるステップを含み、前記他のセンサー・データーは、前記現在提示されているメディア・プログラムの前記第1部分の間に検知され、前記最初に述べたセンサー・データーに関連するユーザーとは異なるユーザーに関連、前記異なるユーザーが前記ユーザーに対して物理的にローカルであり、前記現在提示されているメディア・プログラムの前記後来部分を決定するステップは、更に、前記他のセンサー・データーに基づく、方法。
  5. 請求項1記載の方法において、前記センサー・データーは、前記現在提示されているメディア・プログラムが提示されるメディア提示デバイスに対しローカルなエンティティから受けられ、前記現在提示されているメディア・プログラムの前記1組の後来部分は、前記メディア提示デバイスに対し予めローカルに格納さ前記現在提示されているメディア・プログラムの前記前記後来部分を提示する前記現在提示されているメディア・プログラム内の時間範囲と関連付けられた、方法。
  6. 請求項1記載の方法において、前記現在提示されているメディア・プログラムの前記第1部分は広告であり、前記現在提示されているメディア・プログラムの前記後来部分を決定するステップは、前記現在提示されているメディア・プログラムの前記後来部分を、前記現在提示されているメディア・プログラムの前記1組の後来部分のうちの前記現在提示されているメディア・プログラムの1つ以上の他の先に準備された後来部分よりも高い興味レベルを前記ユーザーが有すると決定された前記現在提示されているメディア・プログラムの前記後来部分に基づいて決定する、方法。
  7. 請求項1記載の方法において、前記現在提示されているメディア・プログラムの前記後来部分を決定するステップは、前記現在提示されているメディア・プログラムの前記第1部分の間に能動的に検知されたセンサー・データーに更に基づく、方法。
  8. 装置であって、
    1つ以上のコンピューター・プロセッサーと、
    命令を格納した1つ以上のコンピューター読み取り可能記憶媒体と、
    を含み、前記命令が、前記1つ以上のコンピューター・プロセッサーによる実行に応答して、
    現在提示されているメディア・プログラムの第1部分の提示中に、前記現在提示されているメディア・プログラムの前記第1部分の間にユーザーの受動的に検知されセンサー・データーを受ける動作と、
    前記センサー・データーに基づき、前記現在提示されているメディア・プログラムの前記第1部分の間における前記ユーザーの状態の確率と前記ユーザーの関心度レベルを決定する動作であって、前記現在提示されているメディア・プログラムの前記第1部分の間における前記ユーザーの状態の前記確率と前記ユーザーの前記関心度レベルが、前記ユーザーに関し受けた履歴的なセンサー・データーにより正規化される、動作と、
    前記現在提示されているメディア・プログラムの前記第1部分の間における前記ユーザーの状態の前記確率と、前記現在提示されているメディア・プログラムの前記第1部分の間における前記ユーザーの前記関心度レベルと、前記現在提示されているメディア・プログラムの前記第1部分に関するコンテキストとに基づき、前記現在提示されているメディア・プログラムの前記第1部分の間における前記ユーザーの興味レベルを決定する動作であって、前記ユーザーの前記興味レベルが、前記ユーザーに関し受けた前記履歴的なセンサー・データーにより正規化される、動作と、
    前記現在提示されているメディア・プログラムの前記第1部分と、前記現在提示されているメディア・プログラムの前記第1部分の間において前記ユーザーに対し高いと決定された前記興味レベルとに基づいて、前記現在提示されているメディア・プログラムの後来部分を決定する動作であって、前記現在提示されているメディア・プログラムの前記後来部分が、
    前記現在提示されているメディア・プログラムの後の部分の間に生起し、
    前記現在提示されているメディア・プログラムの現在の提示の間に、かつ
    前記現在提示されているメディア・プログラムの前記第1部分に対する類似性に基づいて前記現在提示されているメディア・プログラムの1組の後来部分のから選択される、
    動作と、
    前記現在提示されているメディア・プログラムの前記後来部分を、前記現在提示されているメディア・プログラムの前記後の部分の間でかつ前記現在提示されているメディア・プログラムの前記現在の提示中に提示させる動作と、
    を含む動作を実行させる、装置。
  9. 請求項8記載の装置において、前記現在提示されているメディア・プログラムは、前記現在提示されているメディア・プログラムの予定された後来部分を含み、前記現在提示されているメディア・プログラムの前記後来部分を提示させることは、前記現在提示されているメディア・プログラムの前記予定された後来部分を、前記現在提示されているメディア・プログラムの前記後来部分と置き換えるように作用する、装置。
  10. 請求項8記載の装置において、センサー・データーを受けることは、前記現在提示されているメディア・プログラムが提示されかつ前記装置からリモートのメディア提示デバイスからである、装置。
JP2015510501A 2012-05-04 2013-05-04 現在提示中のメディア・プログラムの後来部分の決定 Active JP6291481B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CA2775700A CA2775700C (en) 2012-05-04 2012-05-04 Determining a future portion of a currently presented media program
CA2775700 2012-05-04
US13/482,867 US8959541B2 (en) 2012-05-04 2012-05-29 Determining a future portion of a currently presented media program
US13/482,867 2012-05-29
PCT/US2013/039591 WO2013166474A2 (en) 2012-05-04 2013-05-04 Determining a future portion of a currently presented media program

Publications (3)

Publication Number Publication Date
JP2015521413A JP2015521413A (ja) 2015-07-27
JP2015521413A5 JP2015521413A5 (ja) 2017-09-28
JP6291481B2 true JP6291481B2 (ja) 2018-03-14

Family

ID=46491919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015510501A Active JP6291481B2 (ja) 2012-05-04 2013-05-04 現在提示中のメディア・プログラムの後来部分の決定

Country Status (11)

Country Link
US (2) US8959541B2 (ja)
EP (1) EP2845163A4 (ja)
JP (1) JP6291481B2 (ja)
KR (1) KR102068376B1 (ja)
AU (1) AU2013256054B2 (ja)
BR (1) BR112014026648A8 (ja)
CA (1) CA2775700C (ja)
MX (1) MX345058B (ja)
RU (1) RU2646367C2 (ja)
TW (1) TW201407516A (ja)
WO (1) WO2013166474A2 (ja)

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US10949458B2 (en) 2009-05-29 2021-03-16 Inscape Data, Inc. System and method for improving work load management in ACR television monitoring system
US9449090B2 (en) 2009-05-29 2016-09-20 Vizio Inscape Technologies, Llc Systems and methods for addressing a media database using distance associative hashing
US8769584B2 (en) 2009-05-29 2014-07-01 TVI Interactive Systems, Inc. Methods for displaying contextually targeted content on a connected television
US10116972B2 (en) * 2009-05-29 2018-10-30 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
US9055335B2 (en) 2009-05-29 2015-06-09 Cognitive Networks, Inc. Systems and methods for addressing a media database using distance associative hashing
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US20130243270A1 (en) * 2012-03-16 2013-09-19 Gila Kamhi System and method for dynamic adaption of media based on implicit user input and behavior
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
CN104412607A (zh) * 2012-07-06 2015-03-11 Nec显示器解决方案株式会社 显示设备以及用于显示设备的控制方法
US9998789B1 (en) * 2012-07-27 2018-06-12 Dp Technologies, Inc. Audience interaction system
US10203839B2 (en) * 2012-12-27 2019-02-12 Avaya Inc. Three-dimensional generalized space
US8769557B1 (en) * 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US9344773B2 (en) * 2013-02-05 2016-05-17 Microsoft Technology Licensing, Llc Providing recommendations based upon environmental sensing
BR112015021758B1 (pt) * 2013-03-06 2022-11-16 Arthur J. Zito Jr Sistemas de apresentação multimídia, métodos para exibir uma apresentação multimídia, dispositivo de apresentação multimídia e hardware para apresentar estímulos perceptíveis a um espectador humano ou criatura
US20140325540A1 (en) * 2013-04-29 2014-10-30 Microsoft Corporation Media synchronized advertising overlay
US10297287B2 (en) 2013-10-21 2019-05-21 Thuuz, Inc. Dynamic media recording
US20150113551A1 (en) * 2013-10-23 2015-04-23 Samsung Electronics Co., Ltd. Computing system with content delivery mechanism and method of operation thereof
US9955192B2 (en) 2013-12-23 2018-04-24 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US9361005B2 (en) * 2013-12-27 2016-06-07 Rovi Guides, Inc. Methods and systems for selecting modes based on the level of engagement of a user
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US9578358B1 (en) 2014-04-22 2017-02-21 Google Inc. Systems and methods that match search queries to television subtitles
CN104035982B (zh) * 2014-05-28 2017-10-20 小米科技有限责任公司 多媒体资源推荐方法及装置
WO2016004391A1 (en) * 2014-07-03 2016-01-07 Syncbak, Inc. Real-time regional media syndication and delivery system
EP3186969A1 (en) * 2014-08-29 2017-07-05 Sling Media Inc. Systems and processes for delivering digital video content based upon excitement data
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US10536758B2 (en) 2014-10-09 2020-01-14 Thuuz, Inc. Customized generation of highlight show with narrative component
US10419830B2 (en) 2014-10-09 2019-09-17 Thuuz, Inc. Generating a customized highlight sequence depicting an event
US10433030B2 (en) 2014-10-09 2019-10-01 Thuuz, Inc. Generating a customized highlight sequence depicting multiple events
US11863848B1 (en) 2014-10-09 2024-01-02 Stats Llc User interface for interaction with customized highlight shows
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
US9729915B2 (en) * 2014-10-31 2017-08-08 Paypal, Inc. Detecting user devices to determine state of watched show
JP2016110631A (ja) * 2014-12-02 2016-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. 状態推定装置、状態推定方法およびプログラム
MA40986A (fr) * 2014-12-04 2017-10-11 Cynny Inc Systèmes et procédés pour présenter un contenu
CN118138844A (zh) 2015-01-30 2024-06-04 构造数据有限责任公司 用于识别视频片段以及显示从替代源和/或在替代设备上观看的选项的方法
US10904617B1 (en) * 2015-02-19 2021-01-26 Amazon Technologies, Inc. Synchronizing a client device with media content for scene-specific notifications
EP3284017B1 (en) 2015-04-17 2024-03-27 Inscape Data, Inc. Systems and methods for reducing data density in large datasets
US9883241B2 (en) * 2015-05-17 2018-01-30 Surewaves Mediatech Private Limited System and method for automatic content recognition and audience measurement for television channels and advertisements
CN108351879B (zh) 2015-07-16 2022-02-18 构造数据有限责任公司 用于提高识别媒体段的效率的划分搜索索引的***和方法
WO2017011798A1 (en) 2015-07-16 2017-01-19 Vizio Inscape Technologies, Llc Detection of common media segments
US10080062B2 (en) 2015-07-16 2018-09-18 Inscape Data, Inc. Optimizing media fingerprint retention to improve system resource utilization
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
CN105491427B (zh) * 2015-11-24 2019-01-29 深圳创维-Rgb电子有限公司 一种智能电视的控制***及其实现方法
US10142702B2 (en) * 2015-11-30 2018-11-27 International Business Machines Corporation System and method for dynamic advertisements driven by real-time user reaction based AB testing and consequent video branching
US11164548B2 (en) 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
US11128853B2 (en) 2015-12-22 2021-09-21 JBF Interlude 2009 LTD Seamless transitions in large-scale video
US11540009B2 (en) 2016-01-06 2022-12-27 Tvision Insights, Inc. Systems and methods for assessing viewer engagement
EP4080794A1 (en) 2016-01-06 2022-10-26 TVision Insights, Inc. Systems and methods for assessing viewer engagement
US11012719B2 (en) * 2016-03-08 2021-05-18 DISH Technologies L.L.C. Apparatus, systems and methods for control of sporting event presentation based on viewer engagement
US10187694B2 (en) 2016-04-07 2019-01-22 At&T Intellectual Property I, L.P. Method and apparatus for enhancing audience engagement via a communication network
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US10979472B2 (en) * 2016-09-29 2021-04-13 International Business Machines Corporation Dynamically altering presentations to maintain or increase viewer attention
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
TWI618040B (zh) * 2017-01-13 2018-03-11 Intelligent advertising vehicle with image recognition and its operation process
JP6269874B1 (ja) 2017-03-03 2018-01-31 ソニー株式会社 交換レンズ、撮像装置、およびカメラシステム
US10560508B2 (en) * 2017-03-15 2020-02-11 International Business Machines Corporation Personalized video playback
JP7209359B2 (ja) * 2017-04-20 2023-01-20 テレビジョン・インサイツ、インコーポレイテッド 複数テレビジョン測定のための方法および装置
US10904615B2 (en) * 2017-09-07 2021-01-26 International Business Machines Corporation Accessing and analyzing data to select an optimal line-of-sight and determine how media content is distributed and displayed
JP7096470B2 (ja) * 2017-10-19 2022-07-06 株式会社電通 顧客情報管理サーバ及びプログラム
US10636449B2 (en) * 2017-11-06 2020-04-28 International Business Machines Corporation Dynamic generation of videos based on emotion and sentiment recognition
JP6463826B1 (ja) * 2017-11-27 2019-02-06 株式会社ドワンゴ 動画配信サーバ、動画配信方法及び動画配信プログラム
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US20190253751A1 (en) * 2018-02-13 2019-08-15 Perfect Corp. Systems and Methods for Providing Product Information During a Live Broadcast
US10542314B2 (en) 2018-03-20 2020-01-21 At&T Mobility Ii Llc Media content delivery with customization
US11373404B2 (en) 2018-05-18 2022-06-28 Stats Llc Machine learning for recognizing and interpreting embedded information card content
US11507619B2 (en) 2018-05-21 2022-11-22 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US10965985B2 (en) 2018-05-21 2021-03-30 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US11601721B2 (en) * 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US11025985B2 (en) 2018-06-05 2021-06-01 Stats Llc Audio processing for detecting occurrences of crowd noise in sporting event television programming
US11264048B1 (en) 2018-06-05 2022-03-01 Stats Llc Audio processing for detecting occurrences of loud sound characterized by brief audio bursts
CN108737872A (zh) * 2018-06-08 2018-11-02 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
US10942979B2 (en) * 2018-08-29 2021-03-09 International Business Machines Corporation Collaborative creation of content snippets
US10812855B2 (en) * 2018-09-05 2020-10-20 International Business Machines Corporation Dynamic modification of media content in an internet of things (IoT) computing environment
KR20200054439A (ko) 2018-11-10 2020-05-20 송난나 나무를 알아가는 보드게임
US11574458B2 (en) * 2019-01-02 2023-02-07 International Business Machines Corporation Automated survey results generation from an image
US11064255B2 (en) * 2019-01-30 2021-07-13 Oohms Ny Llc System and method of tablet-based distribution of digital media content
US20200288204A1 (en) * 2019-03-05 2020-09-10 Adobe Inc. Generating and providing personalized digital content in real time based on live user context
US11190840B2 (en) * 2019-07-23 2021-11-30 Rovi Guides, Inc. Systems and methods for applying behavioral-based parental controls for media assets
US11019395B2 (en) * 2019-08-27 2021-05-25 Facebook, Inc. Automatic digital representations of events
CN113796088A (zh) * 2019-09-27 2021-12-14 苹果公司 基于观众参与的内容生成
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US11645578B2 (en) * 2019-11-18 2023-05-09 International Business Machines Corporation Interactive content mobility and open world movie production
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
US12047637B2 (en) 2020-07-07 2024-07-23 JBF Interlude 2009 LTD Systems and methods for seamless audio and video endpoint transitions
JP7374056B2 (ja) * 2020-08-27 2023-11-06 グローブライド株式会社 魚釣用リール
US11503090B2 (en) 2020-11-30 2022-11-15 At&T Intellectual Property I, L.P. Remote audience feedback mechanism
CN114827702B (zh) * 2021-01-22 2023-06-30 腾讯科技(深圳)有限公司 视频推送方法、视频播放方法、装置、设备以及介质
US11425460B1 (en) * 2021-01-29 2022-08-23 Rovi Guides, Inc. Selective streaming based on dynamic parental rating of content
US20220377413A1 (en) * 2021-05-21 2022-11-24 Rovi Guides, Inc. Methods and systems for personalized content based on captured gestures
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites
JP7349231B1 (ja) 2022-09-14 2023-09-22 株式会社ビデオリサーチ ストリーム視聴解析システム、ストリーム視聴解析方法およびプログラム
US20240143263A1 (en) * 2022-10-27 2024-05-02 Verizon Patent And Licensing Inc. Bandwidth management methods and systems based on client-side environment data
JP7280454B1 (ja) * 2023-02-27 2023-05-23 株式会社トランザクション・メディア・ネットワークス 情報訴求程度情報推定システム、情報訴求程度情報推定装置の制御方法及び情報訴求程度情報推定装置の制御プログラム

Family Cites Families (614)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US7831204B1 (en) 1981-11-03 2010-11-09 Personalized Media Communications, Llc Signal processing apparatus and methods
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
US4931865A (en) 1988-08-24 1990-06-05 Sebastiano Scarampi Apparatus and methods for monitoring television viewers
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ja) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5175641A (en) 1991-04-05 1992-12-29 International Business Machines Corporation Dual-mode laser diode transmitter
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
WO1993010708A1 (en) 1991-12-03 1993-06-10 French Sportech Corporation Interactive video testing and training system
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
EP0852442B1 (en) * 1992-12-09 2000-11-02 Discovery Communications, Inc. Television program delivery system
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5694162A (en) * 1993-10-15 1997-12-02 Automated Business Companies, Inc. Method for automatically changing broadcast programs based on audience response
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
JPH0863326A (ja) 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
TW345540B (en) 1994-08-31 1998-11-21 Nike Inc Laminated resilient flexible barrier membranes (1)
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
WO1996009579A1 (en) 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
JP3270264B2 (ja) 1994-10-19 2002-04-02 富士写真フイルム株式会社 放射線像変換パネルおよびその製造法
JPH10507853A (ja) 1994-10-25 1998-07-28 オブジェクト テクノロジー ライセンシング コーポレイション ウィンドウをサービスするためのオブジェクト指向システム
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
DE19516664C1 (de) 1995-05-05 1996-08-29 Siemens Ag Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
CN100524015C (zh) 1995-06-22 2009-08-05 3Dv***有限公司 生成距景物距离的图象的方法和装置
US7895076B2 (en) 1995-06-30 2011-02-22 Sony Computer Entertainment Inc. Advertisement insertion, profiling, impression, and feedback
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
JPH0981309A (ja) 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
WO1999044698A2 (en) 1998-03-03 1999-09-10 Arena, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
US6115482A (en) 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
CA2253626A1 (en) 1996-05-08 1997-11-13 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
AU3954997A (en) 1996-08-14 1998-03-06 Nurakhmed Nurislamovich Latypov Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
US20020120925A1 (en) 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
ATE232621T1 (de) 1996-12-20 2003-02-15 Hitachi Europ Ltd Verfahren und system zur erkennung von handgesten
US5904484A (en) 1996-12-23 1999-05-18 Burns; Dave Interactive motion training device and method
DE69826544T2 (de) 1997-03-05 2005-10-06 Matsushita Electric Industrial Co., Ltd., Kadoma Bildverarbeitungsgerät
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6750848B1 (en) 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP1017973A1 (en) 1997-09-24 2000-07-12 3DV Systems Ltd. Acoustical imaging system
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
WO1999019840A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. A system and method for generating an animatable character
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
DE69830295T2 (de) 1997-11-27 2005-10-13 Matsushita Electric Industrial Co., Ltd., Kadoma Steuerungsverfahren
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6469714B2 (en) 1998-01-26 2002-10-22 International Business Machines Corporation Infocenter user interface for applets and components
US7196720B2 (en) 1998-03-06 2007-03-27 Intel Corporation Method and apparatus for powering on an electronic device with a video camera that detects motion
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
JP3484085B2 (ja) * 1998-05-22 2004-01-06 株式会社リコー 放送型配信方法,その方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体,およびコンテンツサーバ
US6181472B1 (en) 1998-06-10 2001-01-30 Robotic Vision Systems, Inc. Method and system for imaging an object with a plurality of optical beams
US7146627B1 (en) * 1998-06-12 2006-12-05 Metabyte Networks, Inc. Method and apparatus for delivery of targeted video programming
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6552722B1 (en) 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US6141010A (en) 1998-07-17 2000-10-31 B. E. Technology, Llc Computer interface method and apparatus with targeted advertising
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
US7684570B2 (en) 1998-11-17 2010-03-23 Aamp Of America Vehicle remote control interface for controlling multiple electronic devices
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6222465B1 (en) 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US7134130B1 (en) 1998-12-15 2006-11-07 Gateway Inc. Apparatus and method for user-based control of television content
EP2026035A2 (en) 1998-12-16 2009-02-18 3DV Systems Ltd. 3D camera for distance measurements
US6466232B1 (en) 1998-12-18 2002-10-15 Tangis Corporation Method and system for controlling presentation of information to a user based on the user's condition
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6226388B1 (en) 1999-01-05 2001-05-01 Sharp Labs Of America, Inc. Method and apparatus for object tracking for automatic controls in video devices
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6377296B1 (en) 1999-01-28 2002-04-23 International Business Machines Corporation Virtual map system and method for tracking objects
US7120880B1 (en) 1999-02-25 2006-10-10 International Business Machines Corporation Method and system for real-time determination of a subject's interest level to media content
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6591236B2 (en) 1999-04-13 2003-07-08 International Business Machines Corporation Method and system for determining available and alternative speech commands
DE69942663D1 (de) 1999-04-13 2010-09-23 Sony Deutschland Gmbh Zusammenfügen von Sprachschnittstellen zur gleichzeitigen Benützung von Vorrichtungen und Anwendungen
US20030141360A1 (en) 1999-04-22 2003-07-31 De Leo Stephen L. System and method for providing information and services to and from an automated teller machine
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US7015950B1 (en) 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US20070143715A1 (en) 1999-05-25 2007-06-21 Silverbrook Research Pty Ltd Method of providing information via printed substrate and gesture recognition
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6291816B1 (en) 1999-06-08 2001-09-18 Robotic Vision Systems, Inc. System and method for measuring object features with coordinated two and three dimensional imaging
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US6514081B1 (en) 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
AU5646299A (en) 1999-09-08 2001-04-10 3Dv Systems Ltd. 3d imaging system
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US7779439B2 (en) 2001-04-23 2010-08-17 Starz Entertainment, Llc Program guide environment
EP1222655A1 (en) 1999-10-19 2002-07-17 Sony Electronics Inc. Natural language interface control system
US6622119B1 (en) 1999-10-30 2003-09-16 International Business Machines Corporation Adaptive command predictor and method for a natural language dialog system
US6690618B2 (en) 2001-04-03 2004-02-10 Canesta, Inc. Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device
US7006236B2 (en) 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US7050177B2 (en) 2002-05-22 2006-05-23 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US20030132950A1 (en) 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
US20030021032A1 (en) 2001-06-22 2003-01-30 Cyrus Bamji Method and system to display a virtual input device
DE19960180B4 (de) 1999-12-14 2006-03-09 Rheinmetall W & M Gmbh Verfahren zur Herstellung eines Sprenggeschosses
WO2001045004A1 (en) 1999-12-17 2001-06-21 Promo Vu Interactive promotional information communicating system
US7028001B1 (en) 1999-12-27 2006-04-11 Motorola, Inc. System and method for measuring web page advertisement impressions
AU2300801A (en) 2000-01-03 2001-07-16 Amova.Com Automatic personalized media creation system
US7146329B2 (en) 2000-01-13 2006-12-05 Erinmedia, Llc Privacy compliant multiple dataset correlation and content delivery system and methods
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
AU2001249994A1 (en) 2000-02-25 2001-09-03 Interval Research Corporation Method and system for selecting advertisements
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
GB0005727D0 (en) 2000-03-10 2000-05-03 Koninkl Philips Electronics Nv Television
WO2001069799A2 (en) 2000-03-16 2001-09-20 Creator Ltd. Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems
WO2001075568A1 (en) 2000-03-30 2001-10-11 Ideogramic Aps Method for gesture based modeling
US6778171B1 (en) 2000-04-05 2004-08-17 Eagle New Media Investments, Llc Real world/virtual world correlation system using 3D graphics pipeline
US6856827B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US20020108000A1 (en) 2000-05-04 2002-08-08 Marco Iori User recognition system for automatically controlling accesse, apparatuses and the like equipment
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
JP2003535405A (ja) 2000-05-29 2003-11-25 ブイケービー インコーポレイティド 文字・数字及び他のデータを入力する仮想データ入力装置及び方法
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US7042442B1 (en) 2000-06-27 2006-05-09 International Business Machines Corporation Virtual invisible keyboard
US6873710B1 (en) 2000-06-27 2005-03-29 Koninklijke Philips Electronics N.V. Method and apparatus for tuning content of information presented to an audience
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20090234718A1 (en) 2000-09-05 2009-09-17 Novell, Inc. Predictive service systems using emotion detection
JP4432246B2 (ja) 2000-09-29 2010-03-17 ソニー株式会社 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3725460B2 (ja) 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20030036944A1 (en) 2000-10-11 2003-02-20 Lesandrini Jay William Extensible business method with advertisement research as an example
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
JP2004515128A (ja) 2000-11-22 2004-05-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザーの現在の気分に基づいて推薦を発生させる方法および装置
US20020072952A1 (en) 2000-12-07 2002-06-13 International Business Machines Corporation Visual and audible consumer reaction collection
US6881526B2 (en) 2000-12-15 2005-04-19 E. I. Du Pont De Nemours And Company Receiver element for adjusting the focus of an imaging laser
EP1223757B1 (en) 2001-01-09 2006-03-22 Metabyte Networks, Inc. System, method, and software application for targeted advertising via behavioral model clustering, and preference programming based on behavioral model clusters
JP2002259720A (ja) 2001-03-02 2002-09-13 Internatl Business Mach Corp <Ibm> コンテンツ要約システム、映像要約システム、ユーザ端末、要約映像生成方法、要約映像受信方法、およびプログラム
JP3850671B2 (ja) * 2001-03-05 2006-11-29 シャープ株式会社 コンテンツ配信システムおよびそれに用いるサーバーおよびそれに用いるクライアント端末およびコンテンツ配信方法およびその方法をコンピュータに実行させるためのプログラムを記録した記録媒体
JP4371597B2 (ja) 2001-03-15 2009-11-25 シャープ株式会社 情報再生装置
US20020144259A1 (en) 2001-03-29 2002-10-03 Philips Electronics North America Corp. Method and apparatus for controlling a media player based on user activity
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7313621B2 (en) 2001-05-15 2007-12-25 Sony Corporation Personalized interface with adaptive content presentation
US20020174445A1 (en) 2001-05-17 2002-11-21 Koninklijke Philips Electronics N.V. Video playback device with real-time on-line viewer feedback capability and method of operation
US7246329B1 (en) 2001-05-18 2007-07-17 Autodesk, Inc. Multiple menus for use with a graphical user interface
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US6594616B2 (en) 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6795972B2 (en) 2001-06-29 2004-09-21 Scientific-Atlanta, Inc. Subscriber television system user interface with a virtual reality media space
US20030007018A1 (en) 2001-07-09 2003-01-09 Giovanni Seni Handwriting user interface for personal digital assistants and the like
US6868383B1 (en) 2001-07-12 2005-03-15 At&T Corp. Systems and methods for extracting meaning from multimodal inputs using finite-state devices
GB2379017A (en) 2001-07-27 2003-02-26 Hewlett Packard Co Method and apparatus for monitoring crowds
WO2003015056A2 (en) 2001-08-09 2003-02-20 Visual Interaction Gmbh Automated behavioral and cognitive profiling for training and marketing segmentation
FI115419B (fi) 2001-08-20 2005-04-29 Helsingin Kauppakorkeakoulu Informaatiopalveluiden käyttäjäkohtainen personointi
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US20030066071A1 (en) 2001-10-03 2003-04-03 Koninklijke Philips Electronics N.V. Program recommendation method and system utilizing a viewing history of commercials
US8079045B2 (en) 2001-10-17 2011-12-13 Keen Personal Media, Inc. Personal video recorder and method for inserting a stored advertisement into a displayed broadcast stream
US20030079226A1 (en) 2001-10-19 2003-04-24 Barrett Peter T. Video segment targeting using remotely issued instructions and localized state and behavior information
EP1306735A1 (en) 2001-10-25 2003-05-02 ABB Installationen AG Control of a meeting room
US20030081834A1 (en) 2001-10-31 2003-05-01 Vasanth Philomin Intelligent TV room
US8561095B2 (en) 2001-11-13 2013-10-15 Koninklijke Philips N.V. Affective television monitoring and control in response to physiological data
US20030165048A1 (en) 2001-12-07 2003-09-04 Cyrus Bamji Enhanced light-generated interface for use with electronic devices
KR20040065260A (ko) 2001-12-13 2004-07-21 코닌클리케 필립스 일렉트로닉스 엔.브이. 매체 시스템상의 매체 콘텐츠 추천
US20030112467A1 (en) 2001-12-17 2003-06-19 Mccollum Tim Apparatus and method for multimedia navigation
US6585521B1 (en) 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
AU2003217587A1 (en) 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US6730913B2 (en) 2002-02-21 2004-05-04 Ford Global Technologies, Llc Active night vision system for vehicles employing short-pulse laser illumination and a gated camera for image capture
US7516447B2 (en) 2002-02-22 2009-04-07 Bea Systems, Inc. Methods and apparatus for building, customizing and using software abstractions of external entities
WO2003073359A2 (en) 2002-02-26 2003-09-04 Canesta, Inc. Method and apparatus for recognizing objects
JP3715584B2 (ja) 2002-03-28 2005-11-09 富士通株式会社 機器制御装置および機器制御方法
GB0207732D0 (en) 2002-04-03 2002-05-15 Ttpcomm Ltd Wireless communication terminals
US7203909B1 (en) 2002-04-04 2007-04-10 Microsoft Corporation System and methods for constructing personalized context-sensitive portal pages or views by analyzing patterns of users' information access activities
US7310431B2 (en) 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
ATE321689T1 (de) 2002-04-19 2006-04-15 Iee Sarl Sicherheitsvorrichtung für ein fahrzeug
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US20040001616A1 (en) 2002-06-27 2004-01-01 Srinivas Gutta Measurement of content ratings through vision and speech recognition
US20040006477A1 (en) 2002-07-05 2004-01-08 Craner Michael L. Voice-controllable communication gateway for controlling multiple electronic and information appliances
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US8019121B2 (en) 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
US7058902B2 (en) 2002-07-30 2006-06-06 Microsoft Corporation Enhanced on-object context menus
US20090143141A1 (en) 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
WO2004017102A2 (en) 2002-08-16 2004-02-26 Brown University Research Foundation Scanning magnetic microscope having improved magnetic sensor
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7321854B2 (en) 2002-09-19 2008-01-22 The Penn State Research Foundation Prosody based audio/visual co-analysis for co-verbal gesture recognition
JP2004110453A (ja) 2002-09-19 2004-04-08 Sony Corp 携帯端末装置
US7002560B2 (en) 2002-10-04 2006-02-21 Human Interface Technologies Inc. Method of combining data entry of handwritten symbols with displayed character data
EP1408443B1 (en) 2002-10-07 2006-10-18 Sony France S.A. Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition
US20040113933A1 (en) 2002-10-08 2004-06-17 Northrop Grumman Corporation Split and merge behavior analysis and understanding using Hidden Markov Models
US20030126593A1 (en) 2002-11-04 2003-07-03 Mault James R. Interactive physiological monitoring system
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
US20060221081A1 (en) 2003-01-17 2006-10-05 Cohen Irun R Reactive animation
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7435941B2 (en) 2003-03-14 2008-10-14 Inphase Technologies, Inc. Methods for measuring optical characteristics by differential diffractive scanning
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
EP1477924B1 (en) 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
US7290218B2 (en) 2003-04-03 2007-10-30 At&T Bls Intellectual Property, Inc. Method of providing a user interface for a digital cross-connect system
US7681149B2 (en) 2003-05-21 2010-03-16 Nokia Corporation User interface display for set-top box device
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
WO2005113099A2 (en) 2003-05-30 2005-12-01 America Online, Inc. Personalizing content
JP4546956B2 (ja) 2003-06-12 2010-09-22 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
US7409639B2 (en) 2003-06-19 2008-08-05 Accenture Global Services Gmbh Intelligent collaborative media
JP4359755B2 (ja) * 2003-07-31 2009-11-04 ソニー株式会社 コンテンツ再生方法、コンテンツ再生装置、コンテンツ配信方法およびコンテンツ配信装置
US7214932B2 (en) 2003-08-20 2007-05-08 Xyratex Technology Limited Resonator method and system for distinguishing characteristics of surface features or contaminants
US7170605B2 (en) 2003-08-25 2007-01-30 Evan Francis Cromwell Active sensor and method for optical illumination and detection
WO2005022900A2 (en) 2003-08-26 2005-03-10 Redshift Systems Corporation Infrared camera system
KR100493902B1 (ko) 2003-08-28 2005-06-10 삼성전자주식회사 콘텐츠 추천방법 및 시스템
JP2005084770A (ja) * 2003-09-05 2005-03-31 Sony Corp コンテンツ提供システムおよび方法、提供装置および方法、再生装置および方法、並びにプログラム
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
JP2005108108A (ja) 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7136709B2 (en) 2003-11-04 2006-11-14 Universal Electronics Inc. Home appliance control system and methods in a networked environment
US7155305B2 (en) 2003-11-04 2006-12-26 Universal Electronics Inc. System and methods for home appliance identification and control in a networked environment
US8196168B1 (en) 2003-12-10 2012-06-05 Time Warner, Inc. Method and apparatus for exchanging preferences for replaying a program on a personal video recorder
GB2410359A (en) 2004-01-23 2005-07-27 Sony Uk Ltd Display
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2005218025A (ja) 2004-02-02 2005-08-11 Matsushita Electric Ind Co Ltd 視聴中断位置記憶装置、再生装置、及び記録装置
US7706616B2 (en) 2004-02-27 2010-04-27 International Business Machines Corporation System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout
WO2005086059A1 (en) 2004-02-27 2005-09-15 Accenture Global Services Gmbh System for individualized customer interaction
US8949899B2 (en) 2005-03-04 2015-02-03 Sharp Laboratories Of America, Inc. Collaborative recommendation system
EP1722287A1 (en) 2004-03-04 2006-11-15 NEC Corporation Data update system, data update method, date update program, and robot system
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US7301527B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Feedback based user interface for motion controlled handheld devices
US20050215319A1 (en) 2004-03-23 2005-09-29 Harmonix Music Systems, Inc. Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment
US7173604B2 (en) 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
EP1582965A1 (en) 2004-04-01 2005-10-05 Sony Deutschland Gmbh Emotion controlled system for processing multimedia data
US7600201B2 (en) 2004-04-07 2009-10-06 Sony Corporation Methods and apparatuses for viewing choices and making selections
JP4092697B2 (ja) 2004-04-07 2008-05-28 ソニー株式会社 情報処理装置および方法、プログラム並びに記録媒体
EP1738368A1 (en) 2004-04-15 2007-01-03 Koninklijke Philips Electronics N.V. Method of generating a content item having a specific emotional influence on a user
WO2005104010A2 (en) 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
US7681141B2 (en) 2004-05-11 2010-03-16 Sony Computer Entertainment America Inc. Fast scrolling in a graphical user interface
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
WO2005114368A1 (en) 2004-05-20 2005-12-01 Abb Research Ltd A method and system to retrieve and display technical data for an industrial device
US20060031256A1 (en) 2004-05-20 2006-02-09 Bea Systems, Inc. Template language for mobile client
US20050289582A1 (en) 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
JP2007073059A (ja) * 2004-07-07 2007-03-22 Defacto:Kk 広告システム、及び、広告結果記録方法
US20060020904A1 (en) 2004-07-09 2006-01-26 Antti Aaltonen Stripe user interface
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
JP2006060626A (ja) * 2004-08-23 2006-03-02 Matsushita Electric Ind Co Ltd コマーシャル処理装置、およびコマーシャル視聴履歴管理システム
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
US7991220B2 (en) 2004-09-01 2011-08-02 Sony Computer Entertainment Inc. Augmented reality game system using identification information to display a virtual object in association with a position of a real object
JP2006068315A (ja) 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
US20060064481A1 (en) 2004-09-17 2006-03-23 Anthony Baron Methods for service monitoring and control
EP1803228B1 (en) 2004-10-01 2019-07-10 Samsung Electronics Co., Ltd. Device and method for displaying event in wireless terminal
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
US7212665B2 (en) 2004-11-05 2007-05-01 Honda Motor Co. Human pose estimation with data driven belief propagation
US7346944B2 (en) 2004-11-05 2008-03-25 Mark Shaw Mattress monitoring system
US7814518B2 (en) 2004-11-23 2010-10-12 Palo Alto Research Center Incorporated Methods, apparatus, and program products for presenting replacement content instead of a portion of a recorded content
US7870589B2 (en) 2004-11-23 2011-01-11 Palo Alto Research Center Incorporated Method for providing commentary audio and additional or replacement video content
US7217020B2 (en) 2004-11-24 2007-05-15 General Motors Corporation Headlamp assembly with integrated infrared illuminator
US20060123360A1 (en) 2004-12-03 2006-06-08 Picsel Research Limited User interfaces for data processing devices and systems
JP4449723B2 (ja) 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
US7216053B2 (en) 2004-12-30 2007-05-08 Nokia Corporation Low power motion detector
ES2791718T3 (es) 2005-01-07 2020-11-05 Qualcomm Inc Detección y seguimiento de objetos en imágenes
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
US7379566B2 (en) 2005-01-07 2008-05-27 Gesturetek, Inc. Optical flow based tilt sensor
KR100703693B1 (ko) 2005-01-13 2007-04-05 삼성전자주식회사 얼굴 인식 시스템 및 방법
JP3862027B2 (ja) 2005-01-25 2006-12-27 船井電機株式会社 放送信号受信システム
US20060184800A1 (en) 2005-02-16 2006-08-17 Outland Research, Llc Method and apparatus for using age and/or gender recognition techniques to customize a user interface
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
WO2006086508A2 (en) 2005-02-08 2006-08-17 Oblong Industries, Inc. System and method for genture based control system
US20060218573A1 (en) 2005-03-04 2006-09-28 Stexar Corp. Television program highlight tagging
GB2423808B (en) 2005-03-04 2010-02-17 Ford Global Tech Llc Motor vehicle control system for controlling one or more vehicle devices
KR100688743B1 (ko) 2005-03-11 2007-03-02 삼성전기주식회사 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법
US7752633B1 (en) 2005-03-14 2010-07-06 Seven Networks, Inc. Cross-platform event engine
US7643056B2 (en) 2005-03-14 2010-01-05 Aptina Imaging Corporation Motion detecting camera system
US7317836B2 (en) 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
US8147248B2 (en) 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
US20070214471A1 (en) 2005-03-23 2007-09-13 Outland Research, L.L.C. System, method and computer program product for providing collective interactive television experiences
US7487461B2 (en) 2005-05-04 2009-02-03 International Business Machines Corporation System and method for issuing commands based on pen motions on a graphical keyboard
EP1886509B1 (en) 2005-05-17 2017-01-18 Qualcomm Incorporated Orientation-sensitive signal output
WO2006125133A2 (en) 2005-05-19 2006-11-23 Hillcrest Laboratories, Inc. Global navigation objects in user interfaces
US20060280055A1 (en) 2005-06-08 2006-12-14 Miller Rodney D Laser power control and device status monitoring for video/graphic applications
US7646960B2 (en) 2005-06-09 2010-01-12 International Business Machines Corporation Determining chapters based on presentation of a program
US20070033607A1 (en) 2005-08-08 2007-02-08 Bryan David A Presence and proximity responsive program display
ATE412882T1 (de) 2005-08-12 2008-11-15 Mesa Imaging Ag Hochempfindliches, schnelles pixel für anwendung in einem bildsensor
TWI412392B (zh) 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
TW200713060A (en) 2005-09-30 2007-04-01 Primax Electronics Ltd Adaptive input method for touch screen
US7519201B2 (en) 2005-10-28 2009-04-14 Honda Motor Co., Ltd. Detecting humans via their pose
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
GB2431717A (en) 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis
US20070143787A1 (en) * 2005-12-19 2007-06-21 Cankaya Hakki C System and method for providing context-aware local advertising in IPTV systems
US20070140532A1 (en) 2005-12-20 2007-06-21 Goffin Glen P Method and apparatus for providing user profiling based on facial recognition
US20070150281A1 (en) 2005-12-22 2007-06-28 Hoff Todd M Method and system for utilizing emotion to search content
CA2633895A1 (en) * 2005-12-27 2007-07-05 Massive Incorporated Streaming media casts, such as in a video game or mobile device environment
US20070150916A1 (en) 2005-12-28 2007-06-28 James Begole Using sensors to provide feedback on the access of digital content
US20070214292A1 (en) 2006-02-24 2007-09-13 Gillian Hayes System and method for archiving of continuous capture buffers
CN101496032B (zh) 2006-02-27 2011-08-17 普莱姆传感有限公司 使用斑纹解相关的距离映射的方法及设备
US8321889B2 (en) 2006-03-08 2012-11-27 Kamfu Wong Method and system for personalized and localized TV ad delivery
US20070219430A1 (en) 2006-03-17 2007-09-20 Moore Barrett H Electricity Providing Privately Provisioned Subscription-Based Survival Supply Unit Method And Apparatus
DE102006037156A1 (de) 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US8362713B2 (en) 2006-03-28 2013-01-29 Wireless Environment, Llc Wireless lighting devices and grid-shifting applications
US8491159B2 (en) 2006-03-28 2013-07-23 Wireless Environment, Llc Wireless emergency lighting system
US7568116B2 (en) 2006-04-14 2009-07-28 Clever Innovations, Inc. Automated display device
DE102006021414A1 (de) 2006-05-05 2007-11-08 Claudia Eisert Flexibles orthetisches Bekleidungsstück
US8601379B2 (en) 2006-05-07 2013-12-03 Sony Computer Entertainment Inc. Methods for interactive communications with real time effects and avatar environment interaction
US20070271580A1 (en) 2006-05-16 2007-11-22 Bellsouth Intellectual Property Corporation Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics
AU2007254220B2 (en) 2006-05-18 2012-03-29 The Nielsen Company (Us), Llc Methods and apparatus for cooperator installed meters
US7721207B2 (en) 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
US7818290B2 (en) 2006-06-14 2010-10-19 Identity Metrics, Inc. System to associate a demographic to a user of an electronic system
US7640304B1 (en) 2006-06-14 2009-12-29 Yes International Ag System and method for detecting and measuring emotional indicia
WO2008001287A2 (en) 2006-06-27 2008-01-03 Koninklijke Philips Electronics N.V. Inserting advertisements in a television program
WO2008010118A1 (en) 2006-07-12 2008-01-24 Koninklijke Philips Electronics N.V. A device and a method for playing audio-video content
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
TW200806029A (en) 2006-07-14 2008-01-16 Asustek Comp Inc Display system and control method thereof
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
US20080027984A1 (en) 2006-07-31 2008-01-31 Motorola, Inc. Method and system for multi-dimensional action capture
US8775237B2 (en) 2006-08-02 2014-07-08 Opinionlab, Inc. System and method for measuring and reporting user reactions to advertisements on a web page
US20080052026A1 (en) 2006-08-23 2008-02-28 Qurio Holdings, Inc. Configuring a content capture device for one or more service providers
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
JP5194015B2 (ja) 2006-09-05 2013-05-08 インナースコープ リサーチ, インコーポレイテッド 感覚的刺激への視聴者反応を決定する方法およびシステム
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
WO2008032329A2 (en) 2006-09-13 2008-03-20 Alon Atsmon Providing content responsive to multimedia signals
US8645973B2 (en) 2006-09-22 2014-02-04 Oracle International Corporation Mobile applications
US8287372B2 (en) 2006-09-28 2012-10-16 Mattel, Inc. Interactive toy and display system
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7806329B2 (en) 2006-10-17 2010-10-05 Google Inc. Targeted video advertising
KR100828371B1 (ko) 2006-10-27 2008-05-08 삼성전자주식회사 컨텐츠의 메타 데이터 생성 방법 및 장치
EP1919216A1 (en) 2006-10-30 2008-05-07 British Telecommunications Public Limited Company Personalised media presentation
US8102422B1 (en) 2006-11-22 2012-01-24 Amdocs Software Systems Limited System, method and computer program product for presenting an option to receive advertisement content
US20080124690A1 (en) 2006-11-28 2008-05-29 Attune Interactive, Inc. Training system using an interactive prompt character
US20080134102A1 (en) 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
CN101202994B (zh) 2006-12-14 2012-10-24 北京三星通信技术研究有限公司 辅助用户健身的方法和装置
KR100720335B1 (ko) 2006-12-20 2007-05-23 최경순 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
KR20080058740A (ko) 2006-12-22 2008-06-26 삼성전자주식회사 디지털 방송 수신 장치 및 시간 동기화 방법
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US20080163283A1 (en) 2007-01-03 2008-07-03 Angelito Perez Tan Broadband video with synchronized highlight signals
US9311528B2 (en) 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US7770136B2 (en) 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
GB0703974D0 (en) 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
US20090070798A1 (en) 2007-03-02 2009-03-12 Lee Hans C System and Method for Detecting Viewer Attention to Media Delivery Devices
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US20080234023A1 (en) 2007-03-23 2008-09-25 Ajmal Mullahkhel Light game
CN101632053A (zh) 2007-04-03 2010-01-20 深圳Tcl新技术有限公司 根据运动探测进行***功耗模式切换的***和方法
US8390649B2 (en) 2007-04-30 2013-03-05 Hewlett-Packard Development Company, L.P. Electronic device input control system and method
US20090217315A1 (en) 2008-02-26 2009-08-27 Cognovision Solutions Inc. Method and system for audience measurement and targeting media
WO2008144575A2 (en) 2007-05-18 2008-11-27 Optiscan Biomedical Corporation Fluid injection and safety system
US20080310707A1 (en) 2007-06-15 2008-12-18 Microsoft Corporation Virtual reality enhancement using real world data
US8078787B2 (en) 2007-06-22 2011-12-13 Apple Inc. Communication between a host device and an accessory via an intermediate device
US8817061B2 (en) 2007-07-02 2014-08-26 Cisco Technology, Inc. Recognition of human gestures by a mobile phone
KR20090002809A (ko) 2007-07-04 2009-01-09 삼성전자주식회사 어플리케이션에서 생성된 데이터를 hdmi cec에 따라송수신하는 방법
EP2017707B1 (en) 2007-07-06 2017-04-12 Dassault Systèmes Widget of graphical user interface and method for navigating amongst related objects
US7865916B2 (en) 2007-07-20 2011-01-04 James Beser Audience determination for monetizing displayable content
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US20090037945A1 (en) * 2007-07-31 2009-02-05 Hewlett-Packard Development Company, L.P. Multimedia presentation apparatus, method of selecting multimedia content, and computer program product
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US8081302B2 (en) 2007-08-17 2011-12-20 Princeton Satellite Systems, Inc. Multimode optical sensor
US8156118B2 (en) 2007-08-20 2012-04-10 Samsung Electronics Co., Ltd. Method and system for generating playlists for content items
US9261979B2 (en) 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
US8132187B2 (en) 2007-08-31 2012-03-06 Microsoft Corporation Driver installer usable in plural environments
US10091345B2 (en) 2007-09-04 2018-10-02 Apple Inc. Media out interface
KR101182286B1 (ko) 2007-09-19 2012-09-14 삼성전자주식회사 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법
US7899777B2 (en) 2007-09-27 2011-03-01 Rockwell Automation Technologies, Inc. Web-based visualization mash-ups for industrial automation
US8522289B2 (en) 2007-09-28 2013-08-27 Yahoo! Inc. Distributed automatic recording of live event
EP2042969A1 (en) 2007-09-28 2009-04-01 Alcatel Lucent Method for determining user reaction with specific content of a displayed page.
US7970176B2 (en) 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
WO2009046224A1 (en) 2007-10-02 2009-04-09 Emsense Corporation Providing remote access to media, and reaction and survey data from viewers of the media
US8776102B2 (en) 2007-10-09 2014-07-08 At&T Intellectual Property I, Lp System and method for evaluating audience reaction to a data stream
US20090106645A1 (en) 2007-10-17 2009-04-23 Thinkingcraft, Inc. Adaptive response/interpretive expression, communication distribution, and intelligent determination system and method
US8171035B2 (en) 2007-10-22 2012-05-01 Samsung Electronics Co., Ltd. Situation-aware recommendation using correlation
US8001108B2 (en) 2007-10-24 2011-08-16 The Invention Science Fund I, Llc Returning a new content based on a person's reaction to at least two instances of previously displayed content
EP2203893A4 (en) 2007-10-30 2014-05-07 Hewlett Packard Development Co INTERACTIVE DISPLAY SYSTEM WITH GROUP GESTURE DETECTION
US8094891B2 (en) 2007-11-01 2012-01-10 Sony Ericsson Mobile Communications Ab Generating music playlist based on facial expression
CN101925915B (zh) 2007-11-21 2016-06-22 高通股份有限公司 设备访问控制
US8471868B1 (en) 2007-11-28 2013-06-25 Sprint Communications Company L.P. Projector and ultrasonic gesture-controlled communicator
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US20090150919A1 (en) 2007-11-30 2009-06-11 Lee Michael J Correlating Media Instance Information With Physiological Responses From Participating Subjects
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US20090157472A1 (en) 2007-12-14 2009-06-18 Kimberly-Clark Worldwide, Inc. Personalized Retail Information Delivery Systems and Methods
US9098766B2 (en) 2007-12-21 2015-08-04 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US9165199B2 (en) 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US8588816B2 (en) 2007-12-21 2013-11-19 Qualcomm Incorporated Systems and methods for targeted advertising on wireless devices based on device location and current user interests
TW200928892A (en) 2007-12-28 2009-07-01 Wistron Corp Electronic apparatus and operation method thereof
US8149210B2 (en) 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
US8090030B2 (en) 2008-01-04 2012-01-03 Silicon Image, Inc. Method, apparatus and system for generating and facilitating mobile high-definition multimedia interface
US8166421B2 (en) 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8646017B2 (en) 2008-01-14 2014-02-04 At&T Intellectual Property I, L.P. Method and apparatus for providing collaborative viewing of a media stream
US8059111B2 (en) 2008-01-21 2011-11-15 Sony Computer Entertainment America Llc Data transfer using hand-held device
US7904530B2 (en) 2008-01-29 2011-03-08 Palo Alto Research Center Incorporated Method and apparatus for automatically incorporating hypothetical context information into recommendation queries
US7889073B2 (en) 2008-01-31 2011-02-15 Sony Computer Entertainment America Llc Laugh detector and system and method for tracking an emotional response to a media presentation
JP2009186630A (ja) * 2008-02-05 2009-08-20 Nec Corp 広告配信装置
WO2009099296A2 (en) 2008-02-05 2009-08-13 Lg Electronics Inc. Virtual optical input device for providing various types of interfaces and method of controlling the same
JP5259212B2 (ja) * 2008-02-26 2013-08-07 Kddi株式会社 音楽連動型広告配信方法、装置およびシステム
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
KR101365776B1 (ko) 2008-04-08 2014-02-20 엘지디스플레이 주식회사 멀티 터치 시스템 및 그 구동 방법
EP2108328B2 (de) 2008-04-09 2020-08-26 Brainlab AG Bildbasiertes Ansteuerungsverfahren für medizintechnische Geräte
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
GB2459707B (en) 2008-05-01 2010-08-11 Sony Computer Entertainment Inc Media recorder, audio visual entertainment system and method
CN102027450B (zh) 2008-05-20 2015-05-13 思杰***有限公司 由移动计算装置使用外部显示装置的方法和***
US7984197B2 (en) 2008-05-27 2011-07-19 Eyran Lida Methods and devices for on the fly CEC modification
US8477139B2 (en) 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
JP2009302751A (ja) 2008-06-11 2009-12-24 Sharp Corp 要約再生装置、要約再生方法、要約再生プログラム、および記録媒体
US9130684B2 (en) 2008-06-23 2015-09-08 Echostar Technologies L.L.C. Systems and methods for conserving energy in an entertainment system
JP2010016623A (ja) 2008-07-03 2010-01-21 Hitachi Ltd コンテンツ視聴システム
CN201247590Y (zh) 2008-08-01 2009-05-27 鸿富锦精密工业(深圳)有限公司 可自动切换显示模式的电子相框
US9269090B2 (en) 2008-08-18 2016-02-23 Nokia Technologies Oy Method, apparatus and computer program product for providing indications regarding recommended content
US20100070987A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Mining viewer responses to multimedia content
US8925001B2 (en) 2008-09-12 2014-12-30 At&T Intellectual Property I, L.P. Media stream generation based on a category of user expression
US20100070913A1 (en) 2008-09-15 2010-03-18 Apple Inc. Selecting an item of content in a graphical user interface for a portable computing device
US8769427B2 (en) 2008-09-19 2014-07-01 Google Inc. Quick gesture input
US8516561B2 (en) 2008-09-29 2013-08-20 At&T Intellectual Property I, L.P. Methods and apparatus for determining user authorization from motion of a gesture-based control unit
JP2010086356A (ja) 2008-09-30 2010-04-15 Nec Corp 意識関与度測定装置、意識関与度測定方法および意識関与度測定プログラム
US20100086204A1 (en) 2008-10-03 2010-04-08 Sony Ericsson Mobile Communications Ab System and method for capturing an emotional characteristic of a user
US8544046B2 (en) 2008-10-09 2013-09-24 Packetvideo Corporation System and method for controlling media rendering in a network using a mobile device
KR20100041006A (ko) 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US9399167B2 (en) 2008-10-14 2016-07-26 Microsoft Technology Licensing, Llc Virtual space mapping of a variable activity region
US20100107184A1 (en) 2008-10-23 2010-04-29 Peter Rae Shintani TV with eye detection
US8040237B2 (en) 2008-10-29 2011-10-18 The Nielsen Company (Us), Llc Methods and apparatus to detect carrying of a portable audience measurement device
US9374617B2 (en) 2008-10-30 2016-06-21 Taboola.Com Ltd System and method for the presentation of alternative content to viewers video content
US8752087B2 (en) 2008-11-07 2014-06-10 At&T Intellectual Property I, L.P. System and method for dynamically constructing personalized contextual video programs
JP5489197B2 (ja) 2008-11-10 2014-05-14 九州日本電気ソフトウェア株式会社 電子広告装置・方法及びプログラム
JP5224360B2 (ja) * 2008-11-10 2013-07-03 日本電気株式会社 電子広告装置、電子広告方法及びプログラム
US20100138797A1 (en) 2008-12-01 2010-06-03 Sony Ericsson Mobile Communications Ab Portable electronic device with split vision content sharing control and method
KR101531363B1 (ko) 2008-12-10 2015-07-06 삼성전자주식회사 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법
US20100153984A1 (en) 2008-12-12 2010-06-17 Microsoft Corporation User Feedback Based Highlights of Recorded Programs
US20100161424A1 (en) 2008-12-22 2010-06-24 Nortel Networks Limited Targeted advertising system and method
JP4775671B2 (ja) 2008-12-26 2011-09-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8856829B2 (en) 2008-12-29 2014-10-07 Ngc Network Us, Llc Interactive display highlight systems, methods, and computer program products
US20100169157A1 (en) 2008-12-30 2010-07-01 Nokia Corporation Methods, apparatuses, and computer program products for providing targeted advertising
US20100169842A1 (en) 2008-12-31 2010-07-01 Microsoft Corporation Control Function Gestures
US20100191631A1 (en) 2009-01-29 2010-07-29 Adrian Weidmann Quantitative media valuation method, system and computer program
TW201032087A (en) 2009-02-19 2010-09-01 Asustek Comp Inc Command control system and method thereof
CN101833286A (zh) 2009-03-13 2010-09-15 王俊锋 一种智能家居控制器
US20100248832A1 (en) 2009-03-30 2010-09-30 Microsoft Corporation Control of video game via microphone
US9172482B2 (en) 2009-03-31 2015-10-27 At&T Intellectual Property I, L.P. Content recommendations based on personal preferences
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
CN101546248B (zh) 2009-05-05 2014-04-09 阿里巴巴集团控股有限公司 一种级联式选择菜单的呈现方法及装置
KR101567603B1 (ko) 2009-05-07 2015-11-20 엘지전자 주식회사 멀티 음성 시스템의 동작 제어 장치 및 방법
JP5299866B2 (ja) 2009-05-19 2013-09-25 日立コンシューマエレクトロニクス株式会社 映像表示装置
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8255955B1 (en) 2009-06-16 2012-08-28 Tivo Inc. Dynamic item highlighting system
US9594431B2 (en) 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
US9445036B2 (en) 2009-06-30 2016-09-13 Rovi Guides, Inc. Methods and systems for content scheduling across multiple devices
US20100332842A1 (en) 2009-06-30 2010-12-30 Yahoo! Inc. Determining a mood of a user based on biometric characteristic(s) of the user in an online system
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US20110016102A1 (en) 2009-07-20 2011-01-20 Louis Hawthorne System and method for identifying and providing user-specific psychoactive content
US8428368B2 (en) 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
JP5397081B2 (ja) 2009-08-12 2014-01-22 富士通モバイルコミュニケーションズ株式会社 携帯端末
US8326002B2 (en) 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
US7873849B2 (en) 2009-09-02 2011-01-18 Apple Inc. Motion sensor data processing using various power management modes
CN102687139B (zh) 2009-09-08 2015-09-09 意大利电信股份公司 探索数字信息内容的目录的方法
US8275834B2 (en) 2009-09-14 2012-09-25 Applied Research Associates, Inc. Multi-modal, geo-tempo communications systems
US8875167B2 (en) 2009-09-21 2014-10-28 Mobitv, Inc. Implicit mechanism for determining user response to media
US20110084983A1 (en) 2009-09-29 2011-04-14 Wavelength & Resonance LLC Systems and Methods for Interaction With a Virtual Environment
US20110077719A1 (en) 2009-09-30 2011-03-31 Broadcom Corporation Electromagnetic power bio-medical unit
KR20110045565A (ko) * 2009-10-27 2011-05-04 한국전자통신연구원 광고 서비스 제공 방법
KR101647722B1 (ko) 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8627230B2 (en) 2009-11-24 2014-01-07 International Business Machines Corporation Intelligent command prediction
CN102741842A (zh) 2009-12-04 2012-10-17 Tivo有限公司 多功能多媒体设备
US20110145040A1 (en) 2009-12-16 2011-06-16 Microsoft Corporation Content recommendation
KR20110076458A (ko) 2009-12-29 2011-07-06 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
US8719776B2 (en) 2009-12-30 2014-05-06 Foneclay, Inc. System for creation and distribution of software applications usable on multiple mobile device platforms
US10356465B2 (en) 2010-01-06 2019-07-16 Sony Corporation Video system demonstration
US20110173589A1 (en) 2010-01-13 2011-07-14 Microsoft Corporation Cross-Browser Interactivity Testing
CN101777250B (zh) 2010-01-25 2012-01-25 中国科学技术大学 家用电器的通用遥控装置及方法
JP5609160B2 (ja) 2010-02-26 2014-10-22 ソニー株式会社 情報処理システム、コンテンツ合成装置および方法、並びに記録媒体
US20110216059A1 (en) 2010-03-03 2011-09-08 Raytheon Company Systems and methods for generating real-time three-dimensional graphics in an area of interest
US9124651B2 (en) 2010-03-30 2015-09-01 Microsoft Technology Licensing, Llc Controlling media consumption privacy settings
WO2011123833A1 (en) 2010-04-01 2011-10-06 Yanntek, Inc. Immersive multimedia terminal
JP5521727B2 (ja) 2010-04-19 2014-06-18 ソニー株式会社 画像処理システム、画像処理装置、画像処理方法及びプログラム
US20110263946A1 (en) 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
US20110264531A1 (en) 2010-04-26 2011-10-27 Yahoo! Inc. Watching a user's online world
US9503786B2 (en) * 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US8966447B2 (en) 2010-06-21 2015-02-24 Apple Inc. Capturing and displaying state of automated user-level testing of a graphical user interface application
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US20110316845A1 (en) 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US20110320741A1 (en) 2010-06-28 2011-12-29 Nokia Corporation Method and apparatus providing for direct controlled access to a dynamic user profile
US8424037B2 (en) 2010-06-29 2013-04-16 Echostar Technologies L.L.C. Apparatus, systems and methods for accessing and synchronizing presentation of media content and supplemental media rich content in response to selection of a presented object
US8423912B2 (en) 2010-06-29 2013-04-16 Pourang Irani Selectable parent and submenu object display method with varied activation area shape
US20120005632A1 (en) 2010-06-30 2012-01-05 Broyles Iii Paul J Execute a command
US8453176B2 (en) 2010-08-20 2013-05-28 Avaya Inc. OCAP/STB ACAP/satellite-receiver audience response/consumer application
US8499245B1 (en) 2010-08-24 2013-07-30 Amazon Technologies, Inc. Multi-source profiling for adaptive device operation
US9247205B2 (en) 2010-08-31 2016-01-26 Fujitsu Limited System and method for editing recorded videoconference data
US8949871B2 (en) 2010-09-08 2015-02-03 Opentv, Inc. Smart media selection based on viewer user presence
US20120079521A1 (en) 2010-09-23 2012-03-29 Garg Sharad K Incentivizing advertisement viewing and validating associated purchase
US20120084812A1 (en) 2010-10-04 2012-04-05 Mark Thompson System and Method for Integrating Interactive Advertising and Metadata Into Real Time Video Content
US9348141B2 (en) 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US20120109726A1 (en) 2010-10-30 2012-05-03 Verizon Patent And Licensing, Inc. Methods and Systems for Trigger-Based Updating of an Index File Associated with a Captured Media Content Instance
US9348417B2 (en) 2010-11-01 2016-05-24 Microsoft Technology Licensing, Llc Multimodal input system
US20120117015A1 (en) 2010-11-05 2012-05-10 Nokia Corporation Method and apparatus for providing rule-based recommendations
US8650587B2 (en) 2011-07-06 2014-02-11 Symphony Advanced Media Mobile content tracking platform apparatuses and systems
US8640021B2 (en) 2010-11-12 2014-01-28 Microsoft Corporation Audience-based presentation and customization of content
JP4945675B2 (ja) 2010-11-12 2012-06-06 株式会社東芝 音響信号処理装置、テレビジョン装置及びプログラム
US20120174039A1 (en) 2011-01-05 2012-07-05 United Video Properties, Inc. Systems and methods for navigating through content in an interactive media guidance application
US20120209715A1 (en) 2011-02-11 2012-08-16 Microsoft Corporation Interaction with networked screen content via motion sensing device in retail setting
US20110145041A1 (en) 2011-02-15 2011-06-16 InnovatioNet System for communication between users and global media-communication network
WO2012117278A2 (en) 2011-02-28 2012-09-07 Telefonaktiebolaget Lm Ericsson (Publ) Electronically communicating media recommendations responsive to preferences for an electronic terminal
US20120226981A1 (en) 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
EP3654146A1 (en) 2011-03-29 2020-05-20 QUALCOMM Incorporated Anchoring virtual images to real world surfaces in augmented reality systems
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9088823B1 (en) 2011-04-29 2015-07-21 Amazon Technologies, Inc. Customized insertions into digital items
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US9026476B2 (en) 2011-05-09 2015-05-05 Anurag Bist System and method for personalized media rating and related emotional profile analytics
US20120304059A1 (en) 2011-05-24 2012-11-29 Microsoft Corporation Interactive Build Instructions
US20120304206A1 (en) 2011-05-26 2012-11-29 Verizon Patent And Licensing, Inc. Methods and Systems for Presenting an Advertisement Associated with an Ambient Action of a User
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9077458B2 (en) * 2011-06-17 2015-07-07 Microsoft Technology Licensing, Llc Selection of advertisements via viewer feedback
US20120324491A1 (en) 2011-06-17 2012-12-20 Microsoft Corporation Video highlight identification based on environmental sensing
US20120330833A1 (en) 2011-06-24 2012-12-27 American Express Travel Related Services Company, Inc. Systems and methods for gesture-based interaction with computer systems
US9026948B2 (en) 2011-06-29 2015-05-05 Microsoft Technology Licensing, Llc Multi-faceted relationship hubs
US8368723B1 (en) 2011-07-14 2013-02-05 Google Inc. User input combination of touch and user position
WO2013019307A1 (en) 2011-08-04 2013-02-07 Thomson Licensing Content recommendation method and apparatus
US9933935B2 (en) 2011-08-26 2018-04-03 Apple Inc. Device, method, and graphical user interface for editing videos
US8959082B2 (en) 2011-10-31 2015-02-17 Elwha Llc Context-sensitive query enrichment
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8943526B2 (en) 2011-12-02 2015-01-27 Microsoft Corporation Estimating engagement of consumers of presented content
US20130145385A1 (en) 2011-12-02 2013-06-06 Microsoft Corporation Context-based ratings and recommendations for media
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US20130159555A1 (en) 2011-12-20 2013-06-20 Microsoft Corporation Input commands
US20130198690A1 (en) 2012-02-01 2013-08-01 Microsoft Corporation Visual indication of graphical user interface relationship
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US20130268955A1 (en) 2012-04-06 2013-10-10 Microsoft Corporation Highlighting or augmenting a media program
US20130283162A1 (en) * 2012-04-23 2013-10-24 Sony Mobile Communications Ab System and method for dynamic content modification based on user reactions
CA2775814C (en) 2012-05-04 2013-09-03 Microsoft Corporation Advertisement presentation based on a current media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
JP6064544B2 (ja) 2012-11-27 2017-01-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び端末装置
US9996974B2 (en) 2013-08-30 2018-06-12 Qualcomm Incorporated Method and apparatus for representing a physical scene
US20150262412A1 (en) 2014-03-17 2015-09-17 Qualcomm Incorporated Augmented reality lighting with dynamic geometry
US9959675B2 (en) 2014-06-09 2018-05-01 Microsoft Technology Licensing, Llc Layout design using locally satisfiable proposals

Also Published As

Publication number Publication date
AU2013256054A1 (en) 2014-11-13
AU2013256054B2 (en) 2019-01-31
US20130298146A1 (en) 2013-11-07
TW201407516A (zh) 2014-02-16
CA2775700C (en) 2013-07-23
WO2013166474A2 (en) 2013-11-07
CA2775700A1 (en) 2012-07-09
RU2014144369A (ru) 2016-06-27
EP2845163A4 (en) 2015-06-10
US9788032B2 (en) 2017-10-10
MX2014013427A (es) 2014-12-08
MX345058B (es) 2017-01-16
BR112014026648A8 (pt) 2021-05-25
EP2845163A2 (en) 2015-03-11
RU2646367C2 (ru) 2018-03-02
WO2013166474A3 (en) 2014-10-23
KR102068376B1 (ko) 2020-01-20
US8959541B2 (en) 2015-02-17
BR112014026648A2 (pt) 2017-06-27
KR20150013237A (ko) 2015-02-04
JP2015521413A (ja) 2015-07-27
US20150128161A1 (en) 2015-05-07

Similar Documents

Publication Publication Date Title
JP6291481B2 (ja) 現在提示中のメディア・プログラムの後来部分の決定
US8635637B2 (en) User interface presenting an animated avatar performing a media reaction
TW201349147A (zh) 基於當前媒體反應的廣告呈現
US20130268955A1 (en) Highlighting or augmenting a media program
TWI581128B (zh) 基於媒體反應來***體節目的方法、系統及電腦可讀取儲存記憶體
US9015737B2 (en) Linked advertisements
US9628844B2 (en) Determining audience state or interest using passive sensor data
US20140337868A1 (en) Audience-aware advertising
US20140331242A1 (en) Management of user media impressions
US20140325540A1 (en) Media synchronized advertising overlay
CA3202901A1 (en) Systems and methods for composing a media feed for a target user by selecting media assets that share congruent objects with a secondary content item
CN103383597B (zh) 用于呈现媒体节目的方法
CN103383764A (zh) 基于当前媒体反应的广告呈现
US20230316662A1 (en) Systems and methods for creating a custom secondary content for a primary content based on interactive data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170519

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20170821

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20171005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180209

R150 Certificate of patent or registration of utility model

Ref document number: 6291481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250