CN107111642A - 用于创建收听日志和音乐库的***和方法 - Google Patents

用于创建收听日志和音乐库的***和方法 Download PDF

Info

Publication number
CN107111642A
CN107111642A CN201580071492.6A CN201580071492A CN107111642A CN 107111642 A CN107111642 A CN 107111642A CN 201580071492 A CN201580071492 A CN 201580071492A CN 107111642 A CN107111642 A CN 107111642A
Authority
CN
China
Prior art keywords
user
song
audio
music
fingerprint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580071492.6A
Other languages
English (en)
Other versions
CN107111642B (zh
Inventor
吴贤午
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pcms Holdings Inc
Original Assignee
Pcms Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pcms Holdings Inc filed Critical Pcms Holdings Inc
Publication of CN107111642A publication Critical patent/CN107111642A/zh
Application granted granted Critical
Publication of CN107111642B publication Critical patent/CN107111642B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • G06F16/636Filtering based on additional data, e.g. user or group profiles by using biological or physiological data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • G06F16/637Administration of user profiles, e.g. generation, initialization, adaptation or distribution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • G06F16/639Presentation of query results using playlists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

本发明描述了监视和记录用户上下文以及对音乐的参与度的***和方法。在示例性方法中,用户设备通过例如麦克风接收用户音频环境的音频输入。根据音频输入,用户设备识别在用户音频环境中播放的歌曲。这可以通过查询音频特征数据库来完成。用户设备确定用户上下文和/或用户对歌曲的参与水平。上下文可包括歌曲播放的时间和位置。通过监视例如用户是否随歌跳舞或以其他方式随歌曲移动、用户是边听歌曲边唱歌、和/或用户是否增大歌曲的音量来确定参与水平。

Description

用于创建收听日志和音乐库的***和方法
相关申请的交叉引用
本申请是2014年12月31日提交的美国临时专利申请No.62/098,750的非临时申请,并根据35U.S.C.§119(e)要求享有其权益,其全部内容通过引用并入本文。
背景技术
音乐是文化和日常生活的重要组成部分。在许多不同媒体中以不同设置广泛地播放音乐。音乐通过收音机播放,通过互联网流传,在汽车、电梯和健身房里听。音乐可以唤起对特殊的地方或时刻的回忆,例如公路旅行或婚礼之夜。考虑到有各种方法可以用来听音乐以及音乐在日常生活中的整体重要性,需要用于识别和存储对人们生活有重要意义的音乐的***和方法。
发明内容
本公开描述了用于创建收听日志和音乐库的***和方法。在示例实施例中,检测音乐,将检测到的音乐识别为特定歌曲,附加的上下文信息与所识别的歌曲相关联,并且存储歌曲的身份和附加的上下文信息。在各种实施例中,由移动计算机处理***(例如,智能电话及其附件)检测音乐并且感测附加的上下文信息。
本公开描述了创建用于记录与检测到的音乐有关的信息的收听日志。开发了收听计数点(LCP)得分以表示用户对歌曲的注意力水平。在一些实施例中,LCP取决于与音乐相关联的上下文数据。检测到的音乐可以通过用户的计算机处理***(例如智能电话,计算机或汽车音响***)进行播放,或者在从诸如无线电、音乐会等外部来源播放时被用户的计算机处理***检测到。额外的注意力因素包括通过测量用户的动作、环境条件和用户的生物特征数据来确定用户对音乐的意识。
为了检测和识别从外部源播放的音乐,在一些实施例中使用音频指纹技术。一些实施例使用音频指纹技术的两阶段实现来操作,其中音频指纹由来自主收听日志的附加数据补充。附加数据可以包括组合多个音频指纹以产生与音频指纹数据库进行比较以识别歌曲的单个音频指纹。
与识别的歌曲相关联的附加上下文信息也与主收听日志共享,以为用户和音乐行业提供附加服务。附加服务包括创建与检测到的音乐相关联的演示、用于音乐服务的营销信息、用于支持播放相同歌曲的替代版本的音频转换服务、以及检测非法分发的音乐。
在一些实施例中,包含在收听日志中的数据与来自其他来源的数据组合,包括电子邮件、日历事件、社交网络、以及各种应用中使用的数据等。
附图说明
图1是用于创建跟踪用户参与水平的收听日志的***中的用户设备的功能架构的示意图。
图2是用于创建跟踪用户参与水平的收听日志的示例性***的***架构的示意图。
图3是在一些实施例中采用的用于更新收听日志的方法的流程图。
图4是在一些实施例中采用的用于识别正在播放的歌曲的方法的流程图。
图5是在一些实施例中采用的用于基于用户对一个或多个歌曲的参与来生成和更新播放列表的方法的流程图。
图6是在一些实施例中采用的用于基于用户对一个或多个歌曲的参与来生成音乐幻灯片放映的方法的流程图。
图7示出了包括在示例性收听计数点数据库中的表。
图8示出了在一些实施例中执行的用于提高音乐回放质量的方法。
图9是在一些实施例中用作用户设备的无线发射-接收单元(WTRU)的功能架构的框图。
图10是可以在一些实施例中用于歌曲识别和/或维护收听计数点数据库的网络实体的功能架构的框图。
具体实施方式
图1是用于创建跟踪用户参与水平的收听日志的***中的用户设备的功能架构的示意图。在图1的示例中,为用户提供诸如智能电话102之类的用户计算设备。示例性用户设备包括手机、智能电话、MP3播放器、平板电脑、膝上型计算机、台式计算机、汽车音响***、无线电等。用户设备还可以与一个或多个附件通信连接。示例性附件包括麦克风、相机、位置传感器、生物特征传感器、智能手表、智能眼镜、时钟等。
在图1的示例中,在用户设备上提供音乐播放器软件,其被用于播放Elton John的歌曲“Your Song”。用户设备播放的音乐可以本地存储在计算机处理***(例如,保存的MP3音乐文件或光盘)上,或者通过外部连接接收(例如,通过数据连接流式传输或通过无线电调谐器接收)。由用户设备播放的检测到的音乐可以通过附加到音乐的元数据来识别。示例性元数据包括MP3数据的文件名、歌曲标题和艺术家字段、通过伴随无线电信号的数字信号(例如,无线电广播数据***)发送的歌曲信息等。
用户设备能够收集关于播放歌曲的上下文信息。例如,在一些实施例中,用户设备收集包括关于正在播放歌曲的时间和/或位置的信息的时空信息。可以使用内部和/或网络时钟来提供时间信息106。可以使用全球定位***(GPS)芯片组或其他位置确定电路提供歌曲播放期间关于用户位置的地理位置(空间)信息108。还可以提供其他上下文信息110。例如,可以访问用户的日历(其可以在本地存储,或可以是基于网络的日历),并且可以基于日历信息来确定用户正在休假、正在通勤、在家、在健身房等。可以从其他来源(例如用户的电子邮件、短信等)收集上下文信息。可以收集生物特征信息112,在各种实施例中,其包括诸如凝视跟踪信息、脑电图(EEG)读数、心率、体温之类的信息。
用户设备还收集用户输入114,其可以经由用户设备102上的“赞(like)”和“踩(dislike)”按钮提供。可以提供给用户设备102的其他用户输入114可以包括对音量控制的用户输入,其增加或减少正在播放的歌曲的音量。移动信息116还可以由用户设备102中的一个或多个加速度计和/或陀螺仪收集,以提供关于用户在歌曲播放期间的移动的信息,例如,用户是否正在随着歌曲跳舞或跳跃、正在静坐、正在慢跑等。在一些实施例中,从一个或多个麦克风收集环境声音信息118。该声音信号可以用于确定例如用户是否边听边唱、或者在歌曲正在播放时用户是否参与单独的对话。
使用时空和上下文输入106、108、110、112,用户设备102可以确定例如用户在2002年1月2日在悉尼过寒假时听过“Your Song”。指示用户听过歌曲的信息以及相关的上下文信息(或从其导出的信息)一起被存储在收听计数点数据库104中,这在下面更详细地描述。
在一些实施例中,当用户设备102本身不复现歌曲(例如,通过媒体播放器或流媒体音乐应用)时,基于环境声音信息118来识别在用户环境中播放的歌曲。声音信号被转换为音频指纹或散列,并与音频指纹数据库120(其可以是本地或远程存储的数据库)中的信息进行比较以识别歌曲。
在一些实施例中,音乐检测分多个步骤进行。在第一步骤中,用户设备正在待机或降低功率模式下运行。用户设备检测音乐的特征,例如音乐音调或节拍。在稍后的步骤中,用户设备转换到允许完全识别最初检测到的特定歌曲的活动模式。使用音乐检测算法进行歌曲的识别。示例性音乐检测算法包括音频指纹的比较。例如,在Avery Li-chun Wang所著“An Industrial-Strength Audio Search Alogorithm”(2003年10月),以及2002年2月7日公开的WIPO公开WO0211123A3(Avery Li-chun Wang和Julius O.Smith,III,“Method forSearch in an Audio Database”)中描述了基于音频指纹识别的示例性歌曲检测***。音频指纹技术通过查询音乐摘录并将音乐摘录与数据库进行比较来识别音乐。指纹数据库可以存储在用户设备、远程服务器、或计算机处理***与远程服务器的组合中。
在识别音乐的同时,用户设备检测附加上下文信息。附加上下文信息的示例包括位置数据、时间数据、速度、附近的无线设备、存储在计算机处理***可访问的日历上的事件、生物特征数据(例如眼睛位置、EEG、心率、体温等)。附加上下文信息被链接到所识别的音乐并存储在数据库(诸如收听计数点数据库)中的收听日志中。
在一个示例中,用户的智能手机可以经由其麦克风来检测音乐。智能手机对音乐进行采样,并将样本与指纹数据库进行比较,识别歌曲为Lorde的“Royals”。识别可以来自于本地存储的指纹数据库或基于云的指纹数据库。使用附加的上下文信息,用户设备能够确定用户(或其智能手机)位于CA的Pebble Beach附近,并且时间时下午,具体是2014年1月19日的15:27。附加的上下文信息可以包括指示其他人与用户在一起的信息。这可以由附近的无线信号确定、可以手动输入、也可以从其他社交媒体网络收集、也可以使用其他类似的方法。此外,计算机处理***可以确定用户位于汽车中。可以用于确定用户在汽车中的示例性信息可以包括用户的位置、加速度、与汽车电子***的同步等。在其他示例中,计算机处理***还可以检测其他交通方式,例如飞机(在高海拔、高速、飞行模式下行驶等)或火车(沿着已知的列车路线行驶、与用户的日历相比等)。用户的智能手机还可以从其他通信连接的***设备(例如智能手表、智能眼镜、心率监视器、蓝牙耳机等)访问信息。这些连接的***设备能够检测用户的注视、EEG数据、心率、体温、运动等。所识别的歌曲以及附加的上下文信息被存储在诸如收听计数点数据库的数据库中。
图2是用于创建跟踪用户参与水平的收听日志的示例性***的***架构的示意图。在图2的示例中,正在从位置204处的音乐源202播放歌曲。例如,位置204可以是通过一个或多个扬声器206播放来自源202的音乐的商店、餐馆或酒吧。该位置可能存在多个用户设备,例如由第一用户“用户A”携带的智能电话208和由第二用户“用户B”携带的智能电话210。用户设备208和210都检测音乐并识别歌曲。两个用户设备208和210还检测附加的上下文信息,并且将附加上下文信息和识别的歌曲存储到每个用户的收听日志,特别是与用户A相关联的收听日志212和与用户B相关联的收听日志214中。来自每个用户的收听日志的数据与收听日志主集合216共享。存储在主集合216中的共同信息可以用于开发流行音乐榜、检测非法音乐分发、用于进一步的音乐营销以及其他类似用途。
为开发流行音乐榜218,可以使用主收藏日志来确定不同用户听到音乐的次数。例如,相较依赖于接收(收听)端而非发射(播放)端的传统方法,可以获得更好的听众近似值。除了记录听众的数量之外,可以分析附加的上下文信息以确定听众的音乐参与水平,区分例如正在谈话的背景音乐和正在被演唱的歌曲。在通过扬声器播放音乐的示例性场景中,本公开的方法可以用于确定观众中有多少人正在听歌曲。
为了检测非法音乐分发,主收藏日志216可以用于突出在公共空间中播放音乐的区域。通常,公共场所需要许可和/或合同来公开演奏音乐。非法分发检测模块220比较检测到的公共演出(由公共场所中的若干参与者识别歌曲,以及其他方法所指示)和允许的公共演出的数据库,可以突出非法公开分发的可疑情况。
为了协助音乐营销,可以使用主收藏日志提供收听上下文信息,例如听众的传记简档、听到歌曲的位置、听众对音乐的参与度等。音乐营销模块222可以基于该信息进行操作,以向用户提供适当的音乐广告和/或出价。
图3是在一些实施例中采用的用于更新收听日志的方法的流程图。在步骤302中,用户设备处于使用最小功率和计算资源的睡眠状态。在步骤304中,用户设备检测声音并且在步骤306中确定声音是否是环境噪声。如果声音是环境噪声,设备将处于睡眠状态。如果噪声不是环境噪声,则计算机处理***在步骤308转换到活动模式(唤醒&收听)并记录音频。在步骤310中,计算机处理***从记录的音频中提取诸如音频指纹之类的数据。在步骤312中,用户设备通过基于音频指纹识别歌曲并且在收听日志中记录歌曲的标识来更新收听日志。计算机处理***退出检测过程以返回睡眠状态,或者继续监听音乐和附加的上下文信息。
在识别音乐的示例性方法中,用户设备检测音乐并生成歌曲的音频指纹。将音频指纹与本地保存的指纹数据库进行比较。如果检测到的音乐的音频指纹与本地指纹数据库中的已知歌曲相关,则该歌曲已被识别。存储在音乐数据库中的指纹包括最流行的、由用户选择的歌曲,或者与具有相似音乐品味的用户中流行的歌曲相关联。如果音频指纹与存储在本地音频指纹数据库中的歌曲不相关,则用户可以可选地将音频指纹发送到基于云的音频指纹数据库。用户可以提前做出此选择,例如自动通过某些Wi-Fi连接执行此检查,或者每次可以手动启动此请求。否则,音频指纹被缓冲在本地等待队列中以供稍后传输。在稍后,无论是自动还是通过用户启动,计算机处理***将音频指纹传输到基于云的指纹数据库。然后,计算机处理***从基于云的指纹数据库接收匹配。在一些实施例中,计算机处理***将原始声音发送到远程服务器以计算音频指纹和歌曲识别算法。
图4是在一些实施例中采用的用于识别正在播放的歌曲的方法的流程图。在步骤402中,用户设备使用一个或多个麦克风获得音频信号。在步骤404中,用户设备根据音频信号生成音频指纹。在步骤406中,用户设备操作以确定生成的音频指纹是否与存储在本地数据库中的音频指纹匹配。本地数据库可以包括音频指纹和相应歌曲标题和艺术家姓名、或者能够用于识别歌曲的其他标识符(包括任意索引号)之间的关联。在步骤408中,如果在本地数据库中识别了歌曲,则报告歌曲的身份,例如,通过通知用户和/或更新到收听日志。如果无法使用本地数据库识别歌曲,则用户设备在步骤410中确定音频指纹是否匹配联网数据库中的指纹。步骤410可以包括将包括音频指纹的查询发送到网络服务器,并且从网络服务器接收指示歌曲的身份或指示没有找到匹配的响应。在一些实施例中,表示音频信号本身的数据被发送到网络服务器,并且网络服务器操作以生成用于与数据库进行比较的指纹。如果基于联网数据库识别歌曲,则在步骤408中报告歌曲的标识作为对用户的警报和/或作为对收听日志的更新。
如果在步骤410中基于生成的指纹没有找到指纹匹配,则可以尝试通过使用从不同(但附近的)用户设备获得的另一指纹来确定歌曲的身份。作为示例,用户A和用户B被确定为处于基本相同的位置。可以基于例如用户的GPS坐标、用户存在于特定Wi-Fi网络范围内、或社交媒体上用户的位于特定位置的指示(例如“登入”)来确定用户A和B的共同位置。考虑用户A收集的指纹信息X本身不足以允许用户A识别在环境中播放的歌曲,并且用户B收集的指纹信息X'本身不足以允许用户B识别歌曲的情况。因此,指纹信息X和X'被发送至收听日志主收藏程序,并且可以使用指纹信息X和X'的组合来识别歌曲。可以将指纹X和X'与足以允许收听日志主收藏程序确定用户A和用户B可能正在收听同一首歌曲的相应上下文数据一起发送至收听日志主收藏程序。
例如,用户A的用户设备在2014年5月20日16:33:03至16:33:13检测到指纹X'。然而,指纹X'的中间一部分可能由于音质不佳被损坏,***可能无法基于检测到的不佳音频质量来识别音频。导致音质指纹质量不佳的原因可能包括背景噪音、错误等。用户B的用户设备在与用户A相同的时间和位置处检测指纹X'。然而,音频指纹X'的不同部分可能质量不佳,妨碍仅基于X'进行识别。但是,从指纹X和指纹X'得到的组合指纹Y可能足以识别在用户A和用户B两者附近播放的音乐。
组合音频指纹X和X'的示例性方程如下:
Y=f(X,X')=aX+bX',
其中a2+b2=1,其中a和b的值可以基于相对功率和质量因素来确定。在用于生成组合指纹Y的另一示例性方程式中:
Y=X+X'/sqrt(pow(X)+pow(X')),
其中
组合音频指纹Y可用于识别歌曲,并且歌曲的识别可以被传送回用户设备。或者,组合音频指纹Y可以被传送回用户设备,用户设备转而可以使用音频指纹Y来识别歌曲。
如图4所示,当用户设备不能基于从该用户设备生成的音频指纹来识别歌曲时,在步骤412中确定由附近用户设备获得的同时期指纹是否可用。如果相邻指纹可用(并且尚未被尝试),则在步骤414中组合指纹,并且在步骤410中尝试将组合指纹与联网数据库中的指纹进行匹配。当我们可以使用一个以上的可能的相邻指纹时,***可以使用可用的指纹进行组合循环,或者它可以生成两个以上指纹的组合。
在示例性实施例中,诸如无线电台或音乐会发起人之类的音乐广播公司提供关于广播音乐的信息。关于广播音乐的信息可以包括音频指纹、播放时间、和播放音乐的位置。关于广播音乐的信息可以用于基于部分音频指纹来识别检测到的歌曲。在该示例中,用户正在收听无线电台,并且用户设备检测所播放的音乐并记录音频指纹以便与指纹数据库进行比较。可以将部分指纹与用户所在的相应位置的广播音乐进行比较。此外,该功能可以用于估计广播电台的听众规模。还可以实现包括个人计算机流式传输音频音乐以及个人手机检测流式音频音乐的类似方法。例如,通过计算机上的流媒体服务流式传输音乐的人可以离开房间。当没有手机听到流式音乐时,流媒体音乐应用程序可能会提示用户按下按钮继续播放音乐。如果用户不在,没有按下按钮,则音乐流停止。
图5是在一些实施例中采用的用于基于与用户对一个或多个歌曲的参与来生成和更新播放列表的方法的流程图。在步骤502中,***(例如,用户设备,其单独运行或与一个或多个网络服务器通信)识别正在播放的歌曲。在用户设备的环境中播放歌曲的情况下,可以使用音频指纹识别来进行识别。在用户设备本身播放歌曲的情况下,可以由播放歌曲的应用程序提供歌曲的识别。在步骤504中,***在播放所识别的歌曲期间确定用户的一个或多个动作。例如,***可以基于来自麦克风的输入来确定用户是否边听边唱,或者用户是否参与单独的对话。例如,***可以使用用户设备中的一个或多个加速度计和/或陀螺仪的输入来确定用户是否随着歌曲跳舞或者是否随着歌曲而移动。如果用户设备在内部或作为***设备包括生物特征传感器,则***可以基于例如心率或体温的增加来确定歌曲的用户参与。该***还可以确定用户是否已经采取了指示歌曲参与水平的其他动作,诸如增大(或减小)歌曲的音量或选择“赞”(或“踩”)按钮。在用户设备播放歌曲的情况下,可以基于用户与用户设备上的音量按钮的交互来确定用户已经改变了歌曲的音量。在通过外部设备播放歌曲的情况下,用户设备可以基于到达用户设备的麦克风的歌曲的声级的变化来识别音量变化。
在步骤506中,基于一个或多个用户动作,***确定歌曲的用户参与水平。表示与歌曲的用户参与水平的分数在本文中被称为收听计数点(LCP)。根据检测、注意力的量、收听质量、收听时间和/或其他上下文信息计算LCP。在一些实施例中,LCP作为范围从0(用户未收听)到1.0(用户在内容的整个运行时间内完全集中注意力于最高质量内容)的十进制数给出,但是可以使用其他比例。在一些实施例中,如果与所检测到的音乐相关联的LCP与该区域中的其他用户相乘则可能高于最大比例。如果用户的计算机处理***检测到存在的其他听众,则LCP可能会被相乘。另外的用户可能不会增加歌曲的用户的LCP分数,但可以被包括在存储于主收听日志中的信息总和中。例如,如果用户的设备检测到三个人在收听所识别的音乐,并且其他三个人中没有一个正在向主LCP数据库报告收听计数点,则可以将另外的用户计为已经听过该歌曲。另外的听众可以通过视觉、无线信号的检测和其他类似的方法来检测。
在示例性方法中,基于以下类型的信息输入中的一种或多种来计算LCP:播放模式、用户的注意力、声音的响度和质量、和/或其他上下文数据,例如注视方向、EEG、体温、心率、时间戳、GPS、时间表等。在示例性实施例中,测量用户的注意力。用户对播放的音乐的关注越多,检测到的歌曲的LCP越高。例如,虽然用户佩戴耳机并听音乐,但是如果用户同时正在阅读书籍,则用户可能没有参与所播放的音乐。然而,当用户正在进行诸如上网或发送短信等其他简单任务时,用户对所播放音乐的参与水平可能更高。在示例性实施例中,至少部分地由所检测的凝视来确定用户的参与水平。用户设备可以捕获用户的注视。在这种情况下,设备会分析注视并确定用户正在阅读或查看其他资料。
在示例性实施例中,至少部分地基于用户正在监视播放音乐的设备的程度来确定用户的参与水平。通过触摸屏、键盘、鼠标等提供给设备的连续输入信号被分析为用户的活动。也可以通过观察设备的使用来测量对歌曲的参与度。如果用户在设备正在播放音乐时在设备上玩游戏,则可以降低LCP。
在示例性实施例中,至少部分地基于对一个或多个附近对话的检测来确定用户的参与水平。用户正在参与和其他人的对话表明用户没有听音乐。可以通过获取声音和相机信息来检测讲话人的存在。可以使用用于收听日志的相同麦克风输入。在计算LCP时,将考虑确定一个人是否直接与用户通话。也可以并入扬声器二极化(speaker diarisation)技术以确定该情况。具体地,可使用麦克风阵列识别来自至少两个不同方向的声音,表明存在至少两个讲话者。此外,头部跟踪还可以表明对话正在进行,并且用户没有参与音乐,因此降低LCP。
在示例性实施例中,至少部分地基于用户正在锻炼或驾驶的检测来确定用户的参与水平。在一些实施例中,响应于确定用户正在进行锻炼或驾驶,提高LCP。可以通过位置记录装置、与汽车的无线连接、可穿戴装置的输入等来检测用户正在驾驶或锻炼。
在示例性实施例中,至少部分地基于确定用户正在唱歌或与音乐保持节奏来确定用户的参与水平。用户边听边唱或者与播放的音乐保持节奏表明用户高度参与所播放的音乐并提升LCP。可以通过有源麦克风接收来检测用户与检测到的音乐一起唱歌。可以通过多种方式检测用户保持节奏,例如点头或其他有节奏的身体运动。麦克风可以检测通过点击产生的声音。此外,智能手机的惯性传感器还可以检测用户跳舞、敲击或与歌曲保持节奏。根据麦克风的接收信号,从其他环境噪声和声音中唯一地解析出敲击脉冲。智能腕带还可以检测手的敲击。通过使用照相机和/或其他惯性传感器可以检测点头或其他有节奏的身体运动。例如,智能眼镜上安装的照相机和惯性传感器可以通过惯性传感器的移动和图像的摆动来检测用户的头部移动。
可以使用不同技术来根据麦克风输入信号确定用户随着歌曲一起唱,或者用户随着歌曲敲击或移动。在收听和解析之后,首先将输入信号s(n)提供给指纹提取模块。提取的指纹f(i)可以基于前述方法之一与指纹数据库进行比较,然后可以确定目标音乐内容t(n)。使用目标源信号t(n)和接收信号s(n),可以提取用户行为特征。方程1可用于近似估计s(n)。
s(n)=t(n)*r1(n)+u(n)*r2(n)+a(n)*r3(n) (方程式1)
在方程式1中,r1(n)、r2(n)、r3(n)是从声源到接收麦克风的传递函数,通常由房间脉冲响应来支配。在方程式1中,u(n)是用户激发的唱歌或敲击信号,a(n)可以是任何其他环境声音和噪声。为了进一步简化,令r1(n)=r2(n)=r3(n)=r(n)。有多种方法可以盲目地分离/去除这些房间传递函数(这里称为去混响函数D())。当使用D()成功地去除r(n)的影响,并随后去除已知信号t(n)贡献时,在方程式2中获得提取的特征信号e(n)。
e(n)=D(s(n))-t(n)=u(n)+a(n) (方程式2)
在方程式2中,将e(n)与t(n)进行比较,并提取用户边听音乐边唱、或随音乐移动的实例。可以使用互相关来消除环境声音a(n)。相关系数可以作为相似性度量。当v(n)是来自目标音乐t(n)的提取节奏特征时,在方程式3中确定相似性指数。
在方程式3中,ρvu=[0,1]并且当ρvu>thrρ时,确定有节奏的敲击t(n)与音乐匹配。
在示例性实施例中,至少部分地基于检测到用户提高或降低音乐音量来确定用户对歌曲的参与水平。提高音乐音量的用户与较高的LCP相关,相反地,降低音乐音量与较低的LCP相关。在一些实施例中,相对于源音乐的响度来判断音量的用户控制。一些记录的音乐以不同的响度而被掌握并记录,响度根据歌曲而同。因此,在某些情况下,用户提高和降低音量可能使一首歌曲的响度与下一首歌曲的响度相匹配,并且可能不一定反映用户对歌曲的相对享受。测量源信号的响度可补偿用户提升和降低音量,使之与响度相匹配。
在示例性实施例中,至少部分地基于用户是否佩戴耳机来确定用户对歌曲的参与水平。配有接近传感器的耳机可用于确认用户佩戴耳机。确定歌曲正通过耳机而被向用户播放可导致更高的LCP。
在示例性实施例中,至少部分地基于所检测音乐的质量、响度或二者来确定用户对歌曲的参与水平。通过麦克风检测音乐的质量。麦克风检测音乐的分辨率(位深度、采样频率等)。较高的质量对应于较高的LCP。还通过麦克风检测响度。在一些这样的实施例中,声音质量的附加因素是使用诸如3D空间分辨率或环绕声的沉浸式音频来播放音乐。使用麦克风接收的声音或通过对音频通道、扬声器和对象的数量进行计数来检测沉浸式音频。
与声音质量相关的一个附加因素是环境噪声的水平。使用类似于信噪比(SNR)的接收质量测量作为检测听众对歌曲的参与水平的因素。另外一个因素可能包括测量的音频质量感知评估(PEAQ)。在一些实施例中,存在音乐质量和响度的所有这些因素。在一个示例中,当用户坐在收听室中安装的22个扬声器的最佳位置并且使用70dB SPL播放音乐时,LCP可以设置得非常高,例如接近1.0。相反,如果用户在高环境噪声环境中以40dB SPL通过手机上的内置小扬声器播放音乐,则LCP较低,例如接近0.1。
在示例性实施例中,至少部分地基于检测到的生物特征数据来确定用户的参与水平。不同风格的音乐以不同的方式影响听众的生物特征数据。例如,对于听古典音乐的用户而言,相较于听重重金属摇滚音乐的用户,心率变异性(HRV)通常是不同的。通过与用户设备通信地连接的可穿戴附件来检测HRV。当检测到的诸如HRV之类的生物特征数据对应于正在播放的音乐的类型时,LCP提高,表明用户在听音乐。其他类型的生物特征数据是心率、体温、EEG等。
在示例性实施例中,至少部分地基于所识别的音乐与特定地点和/或人的关联来确定用户的参与水平。用户的位置可以通过手动输入、智能电话的位置跟踪功能等来确定。通过感测其他用户的移动设备的存在、通过手动输入、通过从社交网络接收的信息等来确定与其他人的接近程度。例如,当在第一次访问的非常偏远的地方听到音乐时,该歌曲对于用户可能具有更大的意义。这可以提高LCP,并支持标记歌曲以在稍后调用。
在步骤508中,基于参与水平来更新收听计数点数据库。例如,可以更新数据库以包括一条目,该条目标识歌曲的条目且包括为歌曲的该实例计算的收听计数点。LCP数据库可以包括特定歌曲的LCP的运行总计。总LCP可以是所有用户、个别用户、一组用户或其组合的总计。在一些实施例中,针对个别LCP和集体LCP维护不同的数据库。
在一些实施例中,LCP数据库不仅存储关于LCP的信息,而且还存储用户(或一组用户)听到歌曲的总次数的信息。在一些实施例中,用户仅在LCP超过预定阈值(例如0.1)的情况下被计为已经听过歌曲。在一些实施例中,总LCP与用户听到歌曲的次数的比率提供用户对该歌曲感兴趣级别的指示。
在一些实施例中,LCP信息用于生成歌曲的播放列表。例如,在图5的步骤510中生成播放列表。可以通过选择例如特定用户或一组用户的总LCP最高的歌曲来选择播放列表。播放列表中歌曲的数量可以是所选数量的,或者例如可以是足够数量的歌曲,以填充所选的音乐持续时间等。播放列表可以是开放式的,只要用户正在收听,就可以添加(或甚至重复)其他歌曲。具有最高总LCP的歌曲的选择可以是在特定时间段(例如,“最后六个月”或“2010年”)内累积的具有最高总LCP的歌曲的选择,或者歌曲的选择可以包括各个时间段的具有最高LCP的歌曲,例如“您每年的热门歌曲”。也可以使用其他技术基于LCP信息来选择播放列表。
在步骤512中,为用户播放播放列表上的歌曲。在步骤504中可以检测用户播放播放列表中的歌曲时的动作,并且该动作用于确定用户对歌曲的持续参与水平(步骤506)。这允许更新播放列表所基于的LCP信息(步骤508)。如果一首歌曲过于频繁地被播放,则用户对歌曲的兴趣(以及所测量的用户对歌曲的参与度)可能会减少。因此,与减少的LCP相关联的歌曲可以从播放列表中移除或播放得较少。
在一些实施例中,LCP数据用于生成音乐幻灯片,其中音乐被选择为与事件的照片(例如特定地点或时间段)一起播放。在步骤602中,***识别歌曲。在步骤604中,***检测一个或多个用户动作,并且在步骤606中,***基于一个或多个用户动作确定用户对歌曲的参与水平。在步骤608中,***基于测量的用户对歌曲的参与水平来更新收听计数点数据库。***还在步骤610中存储用户听到歌曲的时间(例如日期),在步骤612中存储用户听到歌曲的位置(例如,GPS坐标)。
用户还可以通过在步骤614中使用用户设备的相机捕获图像以及在步骤616中存储图像来收集一个或多个图像。与图像本身一起,***存储关于图像捕获时间的信息(步骤618)和图像捕获位置的信息(步骤620)。关于图像捕获时间和/或位置的时空信息可以作为元数据存储在图像文件本身中,或者它可以存储在诸如图像数据库之类的单独数据存储器中。
为了开始创建音乐幻灯片,用户在步骤622中选择感兴趣的事件,其可以包括时间和/或位置的选择。可以以各种方式提交用户选择。例如,用户可以通过在数字照片商店中选择特定的专辑或文件夹、通过在他或她的数字日历中选择一个日历事件、或者通过明确地输入日期的范围或特定位置(例如城市、州或国家)来选择事件。在步骤624中,***识别与所选择的事件相对应的多个图像(例如,在所选择的时间或在所选择的位置拍摄的图像)。在步骤626中,***识别与所选择的事件相对应的多个歌曲。例如,这些歌曲可以是在所选择的周期中具有最高总LCP的歌曲,或者在所选择的位置具有最高的总LCP的歌曲,或两者的某种组合中具有最高的总LCP的歌曲。
在步骤628中,所选择的歌曲和所选择的图像一起呈现为音乐幻灯片。例如,用户设备上的显示设备可以在播放包括所选歌曲的播放列表时循环所选择的图像(例如,将每个图像显示预定量的时间,例如十秒钟,并且切换,例如分解为下一个图像)。
使用上述步骤或其变化,创建伴随幻灯片放映的自动背景音乐。在示例方法中,智能手机显示与特定事件相对应的照片。该事件可以是公路旅行、度假、商务旅行、婚礼之夜等。照片可以存储在智能手机本地、可通过社交网络访问、或者从朋友的社交网络共享。自动生成的背景音乐包括与在某些事件上花费的时间相关的歌曲。相关的歌曲可以是用户以高度注意力聆听的歌曲、在事件期间经常播放的歌曲、或者与具有高LCP的歌曲具有高度相似性的其他类似歌曲。
在一些实施例中,响应于用户选择要包括在幻灯片中的图像而生成音乐幻灯片,其中基于图像的时空信息(位置和/或时间信息)来选择音乐。相反,在其他实施例中,响应于用户选择要包括在幻灯片中的歌曲而产生音乐幻灯片,其中基于与歌曲相关联的时空信息来选择图像。可以基于用户从可用歌曲列表中选择特定音乐来生成自动生成的幻灯片。幻灯片还可以包括自动生成的标题,该标题标记幻灯片照片中描绘的人物、地点和事件。自动生成的标题还可以包括与基于收集的上下文数据选择的照片一起出现的预先生成的图像。一个例子就是在对应于快乐时刻的照片上描绘幸福面孔的表情符号。
示例性的收听计数点数据库在图7中示出。数据库可以包括一个或多个表,例如表702和表704。示例性表702包括每个歌曲的一个条目。表702存储用于标识歌曲的信息以及这些歌曲的总收听计数点。(在各种实施例中,总收听计数点可以是特定用户的总计收听计数点、或者是一组用户的总计收听计数点)。表702包括为每首歌曲提供任意唯一标识符的歌曲索引(Song_Index)列。歌曲名称(Song_Title)列和歌曲艺术家(Song_Artist)列分别列出歌曲的标题和艺术家。播放(Plays)列标识歌曲已被播放的次数(使用本文所述的***和方法检测)。总LCP(Tot_LCP)列表示每首歌曲的总收听计数点值。
在一些实施例中,可以使用单独的表704提供更详细的信息。在一些实施例中,表704被称为收听日志。示例性的表704包括针对每次检测到歌曲的播放的一个条目。表704包括提供检测到的歌曲的唯一标识符的歌曲索引(Song_Index)列。收听时间(Listen_Time)列存储有关检测到歌曲的时间的信息,而位置维度(Loc_Lat)列表示检测到歌曲的位置的经度和纬度。在表704中,LCP列存储基于指示用户对歌曲的参与水平的一个或多个用户动而确定的针对检测到的歌曲的回放的收听计数点值,。在该示例中,一些LCP值大于1.0,这可能在基于除了0.0-1.0比例之外的比例的实施例中发生,或者当***检测到在播放歌曲时存在多个用户可能发生。在表704的示例中,源(Source)列提供关于如何播放歌曲的信息。例如,指示符LIV可以用于指示该歌曲是现场演唱。一些实施例可以区分原唱艺术家的现场表演和其他艺术家的现场表演。指示符LIB可以指示该歌曲是从用户自己的音乐库(例如MP3文件的集合)中播放的。指示符STR可以指示歌曲是使用流媒体应用程序播放的。指示符AUD可以指示该歌曲被检测为在另一个音频***播放,例如,由不同于用户设备的***播放,并被用户设备的麦克风检测到。在一些实施例中,表704可以包括包括附加信息的备注(Notes)字段,其可以由用户手动输入,或者可以使用来自例如用户的数字日历或社交媒体信息的信息填充。应当理解,除了图7所示的数据库和表结构之外,其他数据库和表结构也可以用于收听计数点数据库。
作为存储在数据库中的信息的示例,根据实施例,数据库可以包括关于歌曲、艺术家、播放次数、收听次数和高亮(highlighted)时刻的信息。在一个示例中,用户的计算机处理***可以存储指示检测到289次播放的信息,并且歌曲对于感兴趣的用户具有357.31的收听计数点(LCP)分数。高亮时刻包括聆听其他艺术家现场演奏歌曲、聆听由原唱艺术家现场演奏歌曲、休假时、通过用户生日聚会上的收音机收听、及其他时间。LCP代表用户对音乐的参与。LCP的一个因素是用户的注意力。更高水平的注意力导致更高水平的LCP。
在一些实施例中,用户设备提供用户界面,通过该用户界面,用户可以手动地输入该用户对所播放的歌曲的感兴趣水平(或参与度)。一旦检测到并被识别,用户可以为识别的歌曲输入“赞”或“踩”。参考图1,用户的智能手机检测到Elton John演唱的Your Song,并通过按下智能手机的触摸屏上的任一按钮而被提供“赞”(Like)或“踩”(Dislike)歌曲的选项。针对用户按下“赞”,对LCP进行积极调整,针对用户按下“踩”,对LCP进行负面调整。
在示例性实施例中,包含在收听计数点数据库中的数据(包括播放计数、收听计数和相关联的上下文数据)被更高级别的应用程序使用。相关联的上下文数据包括如本公开所解释的上下文数据,还可以从社交网络(Facebook,MySpace,Friendster,Photobucket等)、用户的数字相册、视频、电子邮件、日历任务等获得。该信息可以本地存储在计算机处理***上、可通过网络连接访问、与用户(在用户的Facebook页面上)关联、或者与用户共享(从朋友的Facebook页面)。为了通过更高级别的应用从多模态信息开发附加内容,可以使用诸如深层神经网络和机器学习方法之类的技术。
图8示出了在一些实施例中执行的用于提高音乐回放质量的方法,例如通过播放检测到的歌曲的替代版本。在步骤802中,***识别正在播放的歌曲。在步骤804中,***确定歌曲的替代版本是否有更高的质量可用。如果有,则在步骤806中,***识别当前正在播放的歌曲的回放点,例如确定自歌曲开始以来经过了多少秒。一旦确定了回放点,在步骤808中,例如通过淡入歌曲的较高质量版本,在回放点开始播放较高质量的歌曲。
诸如图8所示方法之类的方法可以用于检测音乐、识别音乐、并且播放所识别的音乐的不同版本。在一个示例中,用户可以通过FM无线电收听以某种质量广播的歌曲。用户设备(包括用户的手机、智能电话或汽车中嵌入的音频***)检测播放的音乐。基于本公开的方法,用户设备识别音乐并搜索所识别歌曲的替代版本。替代版本可以包括较高质量的版本、不同艺术家的版本、包含明确歌词的版本、同一艺术家但是在音乐会上“现场”播放的版本等。替代版本可能是免费的或向用户收费。免费音乐的示例可以是已经购买的音乐、已经存储在本地设备上的音乐、通过订阅服务可用的音乐等。收费的音乐可以包括一次性播放免费、音乐的长期许可、或购买数字下载。高品质歌曲格式的一个版本是录音棚质量声音(MQS)格式,但是还可以列出其他歌曲版本。
用户设备然后将音频回放转换为所识别歌曲的替代版本。转换可以是自动启动或手动启动的。自动转换的示例包括从FM广播电台播放歌曲到播放存储在用户智能电话上的歌曲的更高质量版本的转换。手动转换的示例包括检测和识别在FM收音机上播放的音乐,用户设备建议艺术家在最近的音乐会上演奏的歌曲的替代版本以及其他选项,用户选择替代现场版本和支付方法,并且用户设备完成到替代现场版本的音频转换。
向替代版本的转换可能有多种形式。歌曲的替代版本可以存在于用户设备(例如,智能电话)上、远程服务器上(例如,通过云存储)、与音频***连接的CD播放器中的CD上、通过流媒体服务而存在等等。用户设备可以经由通信链路将音乐文件直接传输至音频***(例如汽车的音频***),或者可以经由其自己的音频***播放音乐。此外,用户设备可以引导音频***从远程服务器检索音乐文件。
在一些实施例中,到替代版本的转换可以被同步,使得用户不会察觉到转换。例如,音频***可以正在播放FM电台,包括DJ说话和歌曲的开始。使用本文所述的公开内容来检测和识别歌曲。音乐在FM电台和要通过个人音乐库播放的音乐之间同步。播放来自替代版本的音乐,例如更高质量的版本。然后,音乐将在歌曲结束时转换回FM电台。除了改进的质量之外,用户可能不会察觉到转换。
在示例性实施例中,音乐被转换为替代版本,但是混合来自原始来源的内容。在该示例中,播放的主要音乐是高品质的版本。但是,如果在原始来源上检测到附加音频,例如DJ说话,则将DJ的声音混合到高质量音频播放中。在示例性实施例中,电台DJ可以选择音乐并提供附加的上下文,例如命名歌曲并提供交通状况更新,并且到高质量或替代版本的歌曲的转换可自动且无缝地进行。
在根据实施例的音乐转换为替代版本的示例性方法中。在这样的实施例中,音乐识别引擎使用本文描述的技术来检测并识别经由FM电台以中等质量播放的音乐。提供播放控制模块,以自动地或通过用户输入来确定要播放的歌曲的版本。同步叠化器(dissolver)模块无缝地转换要播放的音频的版本。在示例方法中,除了其他选项之外,同步叠化器可以播放来自FM电台或云服务的音乐。
在一些实施例中,同步叠化器功能补偿不同版本之间的不同运行时间。可用于补偿不同运行时间的示例性技术包括时间尺度修改,其扩展或压缩音频信号的时间尺度。
在一些实施例中,播放控制模块基于不同源的可用性来确定要播放的歌曲的版本。例如,如果FM电台暂时超出范围或用户正在通过不良接收区域,则播放控制模块可以选择该歌曲的基于云的版本。或者,如果基于云的音乐和音频播放之间的数据连接中断,则播放控制模块可以选择播放歌曲的缓冲版本或转换回FM版本。
在示例性实施例中,检测和识别在基于互联网的无线电台上播放的音乐。在所述实施例中,可以通过读取流媒体音乐中包含的元数据来识别音乐。将所识别的歌曲与音乐库中可用的歌曲进行比较。播放控制模块确定要播放歌曲的哪个版本。同步叠化器在互联网广播电台和从音乐库播放的音乐之间转换。
如下面进一步详细描述的,各种其他特征也可以单独地实现,或者作为本文公开的前述实施例的补充特征实现。例如,在一些实施例中,启用基于地理位置的音乐播放。音乐播放器根据收集的数据生成推荐音乐的播放列表。
在一些实施例中,用户查看朋友的社交网络更新并在朋友的社交媒体帖子中发现位置元数据。用户设备建议添加用户内容,其分享在朋友的社交媒体帖子中检测到的位置数据。
在一些实施例中,用户设备包括嵌入式音乐播放器,并且用户选择要播放的歌曲或专辑。响应于所选择的音乐,用户设备基于上下文混合器信息来显示照片和视频。上下文混合器信息包括位置标签、相关联的情绪状态、事件等。在这样的实施例中,计算机处理***可以一直显示照片,或者仅被配置为在检测到观看者时显示照片。
在示例性实施例中,用户的计算机处理***基于用户返回到位置上来建议音乐、图像或两者。
在示例性实施例中,可基于手动输入的位置来混合上下文。手动输入的位置可以是用户期望创建与该位置相关联的内容的任何位置。例如,为了在远程办公设施上准备演示,正在旅行的经理可以选择远程办公室的位置以基于远程办公室的位置而生成内容。演示的内容将是与远程办公室相关联的音乐、照片和视频。在一些这样的实施例中,演示是时间轴式的演示,按时间顺序列出媒体。
在示例性实施例中,用户控制共享数据。包含与音乐相关联的数据的收听日志可以存储在每首歌曲的元数据字段中,或者可以存储在单独的设备中。作为示例,在云音乐服务场景中,收听日志可以存储在网络存储器中的个人区域中。或者,可以通过可能包括匿名分析数据的综合方式来分析收听日志数据。
在示例性实施例中,基于用户未购买歌曲,用户可能仅具有对存储在收听日志中的有限数据的访问。基于购买歌曲、或者对完整数据的订阅服务,用户可以完整地访问收听日志数据。
在示例性实施例中,用户控制收听日志的敏感信息。用户通过对存储在电话中的数据或远程网络上的私有区域中的数据进行分析来控制收听日志的敏感信息。收听日志的原始数据被清理掉敏感信息。清理后的信息可能只包括LCP数值而没有该LCP数值的确定因素。
在一些实施例中,收听日志数据被匿名地共享。例如,可以将不同用户的收听日志数据提供给匿名桥接模块以进行隐私保护。桥接模块从收听日志数据中删除敏感信息,并与收听日志主收集进程共享数据。收听日志主收集进程帮助匹配来自多个用户设备的检测到的音乐并存储收听日志信息。桥可以位于远程服务器或用户的计算机处理***中。
注意,所描述的实施例中的一个或多个的各种硬件元件被称为执行(即,实施、实行等)各种功能的“模块”,这些功能在这里结合各个模块来描述。如本文所使用的,模块包括硬件(例如,一个或多个处理器、一个或多个微处理器、一个或多个微控制器、一个或多个微芯片、一个或多个专用集成电路(ASIC)、一个或多个现场可编程门阵列(FPGA)、一个或多个存储器设备)被认为对于相关领域的技术人员,对于给定实施方式是合适的。每个所描述的模块还可以包括可执行以实施由相应模块执行的一个或多个功能的指令,并且应当注意,这些指令的形式可以采取或包括硬件(即,硬连线)指令、固件指令、软件指令和/或类似指令,并且可以存储在任何合适的非暂时计算机可读介质或媒介(例如通常被称为RAM,ROM等)中。
本文公开的示例性实施例使用一个或多个有线和/或无线网络节点(诸如无线发射/接收单元(WTRU)或其他网络实体)来实现。
图9是示例性WTRU 902的***图,其可以在本文描述的实施例中用作用户设备。如图9所示,WTRU 902可以包括处理器918、包括收发器920的通信接口919、发射/接收元件922、扬声器/麦克风924、键盘926、显示器/触摸板928、不可移除存储器930、可移除存储器932、电源934、全球定位***(GPS)芯片组936和传感器938。应当理解,WTRU 902可以包括上述元件的任何子组合,同时与实施例保持一致。
处理器918可以是通用处理器、专用处理器、常规处理器、数字信号处理器(DSP)、多个微处理器、与DSP内核相关联的一个或多个微处理器、控制器、微控制器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)电路、任何其他类型的集成电路(IC)、状态机等。处理器918可以执行信号编码、数据处理、功率控制、输入/输出处理和/或能够使WTRU 902在无线环境中操作的任何其他功能。处理器918可以连接至收发器920,收发器920可以连接至发送/接收元件922。尽管图9将处理器918和收发器920描述为单独的组件,但是应当理解,处理器918和收发器920可以集成在电子封装或芯片中。
发射/接收元件922可以被配置为通过空中接口915向基站发送信号或从基站接收信号。例如,在一个实施例中,发射/接收元件922可以是被配置为发射和/或接收RF信号的天线。在另一个实施例中,发射/接收元件922可以是例如被配置为发射和/或接收IR、UV或可见光信号的发射器/检测器。在另一个实施例中,发射/接收元件922可以被配置为发射和接收RF信号和光信号。应当理解,发射/接收元件922可以被配置为发射和/或接收无线信号的任何组合。
此外,尽管发送/接收元件922在图9中被描述为单个元件,但是WTRU902可以包括任何数量的发射/接收元件922。更具体地,WTRU 902可以采用MIMO技术。因此,在一个实施例中,WTRU 902可以包括用于通过空中接口915发送和接收无线信号的两个或更多个发射/接收元件922(例如,多个天线)。
收发器920可以被配置为对由发射/接收元件922发送的信号进行调制并且解调由发射/接收元件922接收的信号。如上所述,WTRU 902可以具有多模式能力。因此,收发器920可以包括多个收发器,用于使得WTRU 902能够通过诸如UTRA和IEEE 802.11之类的多种RAT进行通信。
WTRU 902的处理器918可以连接至扬声器/麦克风924、键盘926和/或显示器/触摸板928(例如,液晶显示器(LCD)显示单元或有机发光二极管(OLED)显示单元)并且可以从其接收用户输入数据。处理器918还可以将用户数据输出到扬声器/麦克风924、键盘926和/或显示器/触摸板928。另外,处理器918可以从任何类型的合适的存储器(例如不可移除存储器930和/或可移除存储器932)访问信息和存储数据。不可移除存储器930可以包括随机存取存储器(RAM)、只读存储器(ROM)、硬盘或任何其他类型的存储器设备。可移除存储器932可以包括订户身份模块(SIM)卡、记忆棒、安全数字(SD)存储卡等。在其他实施例中,处理器918可以从未物理上位于WTRU 902(例如,服务器或家庭计算机(未示出))上的存储器访问信息,并在其中存储数据。
处理器918可以从电源934接收电力,并且可以被配置为向WTRU 902中的其他组件分配和/或控制电力。电源934可以是用于为WTRU 902供电的任何合适的设备。作为示例,电源934可以包括一个或多个干电池(例如,镍镉(NiCd)电池、镍-锌(NiZn)电池、镍金属氢化物(NiMH)电池、锂离子(Li-ion)电池等)、太阳能电池、燃料电池等。
处理器918还可以连接至GPS芯片组936,GPS芯片组936可以被配置为提供关于WTRU 902的当前位置的位置信息(例如,经度和纬度)。作为来自GPS芯片组936的信息的附加或替代,WTRU 902可以通过空中接口915从基站接收位置信息和/或基于从两个或更多个附近基站接收到的信号的定时来确定其位置。应当理解,WTRU 902可以通过任何合适的位置确定方法获取位置信息,同时保持与实施例一致。
处理器918还可以进一步连接至其他***设备938,其可以包括提供附加特征、功能和/或有线或无线连接的一个或多个软件和/或硬件模块。例如,***设备938可以包括传感器(例如加速度计)、电子指南针、卫星收发器、数字照相机(用于照片或视频)、通用串行总线(USB)端口、振动装置、电视收发器、免提耳机、蓝牙模块、调频(FM)无线电单元、数字音乐播放器、媒体播放器、视频游戏机模块、因特网浏览器等。
图10描绘了可以在本公开的实施例中使用的示例性网络实体1090,例如,用于跟踪收听计数点和/或用于将检测到的音频指纹与音频指纹数据库进行比较的网络服务器。如图10所示,网络实体1090包括通信接口1092、处理器1094和非瞬态数据存储器1096,所有这些都通过总线、网络或其他通信路径1098通信地连接。
通信接口1092可以包括一个或多个有线通信接口和/或一个或多个无线通信接口。关于有线通信,作为示例,通信接口1092可以包括一个或多个接口,例如以太网接口。关于无线通信,通信接口1092可以包括组件,例如一个或多个天线、针对一种或多种类型的无线(例如LTE)通信设计和配置的一个或多个收发器/芯片组、和/或相关领域的技术人员认为合适的任何其他组件。此外,关于无线通信,通信接口1092可以以适于作用在无线通信(例如,LTE通信、Wi-Fi通信等)的网络侧—与客户端侧相对—的规模和配置来配置。因此,通信接口1092可以包括服务于覆盖区域中多个移动站、UE或其他接入终端的合适设备和电路(可能包括多个收发器)。
处理器1094可以包括相关领域的技术人员认为合适的任何类型的一个或多个处理器,一些示例包括通用微处理器和专用DSP。
数据存储器1096可以采取任何非瞬时性计算机可读介质或这种媒介的组合的形式,一些示例包括闪存、只读存储器(ROM)和随机存取存储器(RAM)等,这里只是简单的列举数例,实际上可以使用相关领域的技术人员认为合适的任何一种或多种类型的非瞬时性数据存储器。如图10所示,数据存储器1096包含可由处理器1094执行的用于执行本文所述的各种网络实体功能的各种组合的程序指令1097。
虽然以上述特定组合描述了特征和元件,但是本领域普通技术人员将理解,每个特征或元件可以单独使用或与其它特征和元件的任何组合一起使用。此外,本文描述的方法可以在并入计算机可读介质中以供计算机或处理器执行的计算机程序、软件或固件中实现。计算机可读存储介质的示例包括但不限于只读存储器(ROM)、随机存取存储器(RAM)、寄存器、高速缓冲存储器、半导体存储器、磁性介质(例如内部硬盘和可移除磁盘)、磁光介质、光学介质(例如CD-ROM盘和数字通用盘(DVD))。可以使用与软件相关联的处理器来实现在WTRU、UE、终端、基站、RNC或任何主计算机中使用的射频收发器。

Claims (20)

1.一种方法,该方法包括:
识别正在播放的歌曲;
操作便携式用户设备以在播放所述歌曲期间检测用户的至少一个动作;
基于所述至少一个用户动作来确定用户对所述歌曲的参与水平;和
基于所述用户的参与水平来更新所述歌曲的收听计数点值。
2.根据权利要求1所述的方法,其中所述收听计数点值被存储在收听计数点数据库中,所述收听计数点数据库中包括多首歌曲的相应收听计数点值。
3.根据权利要求2所述的方法,还包括基于所述多首歌曲的相应收听计数点值生成播放列表。
4.根据权利要求3所述的方法,还包括针对所述用户播放所述播放列表。
5.根据权利要求4所述的方法,其中,在播放所述播放列表期间执行所述用户的参与水平的确定和所述收听计数点值的更新。
6.根据权利要求2所述的方法,还包括基于所述多首歌曲的相应收听计数点值生成排行榜。
7.根据权利要求2所述的方法,其中,所述收听计数点数据库是由单个用户的收听计数点信息组成的用户收听日志。
8.根据权利要求2所述的方法,其中,所述收听计数点数据库是由多个用户的收听计数点信息组成的主收听日志。
9.根据权利要求1所述的方法,其中检测所述用户的至少一个动作包括操作所述用户设备的加速度计以确定所述用户是否随着所述歌曲及时移动。
10.根据权利要求1所述的方法,其中检测所述用户的至少一个动作包括操作所述用户设备的麦克风以确定所述用户是否随着所述歌曲一起唱歌。
11.根据权利要求1所述的方法,其中检测所述用户的至少一个动作包括确定所述用户是否与所述用户设备上的游戏交互。
12.根据权利要求1所述的方法,其中检测所述用户的至少一个动作包括检测所述用户增大了所述歌曲的音量。
13.如权利要求1所述的方法,其中识别正在播放的歌曲包括:
操作麦克风以检测音频信号;
根据检测到的音频信号生成样本音频指纹;和
将所述样本音频指纹与存储的音频指纹的数据库进行比较。
14.如权利要求1所述的方法,其中识别正在播放的歌曲包括:
确定第一用户设备和第二用户设备彼此靠近;
操作第一用户设备上的第一麦克风以检测第一音频信号;
操作第二用户设备的第二麦克风以检测第二音频信号;
根据所述第一音频信号生成第一音频指纹;
从所述第二音频信号检测第二样本音频指纹;和
将所述第一音频指纹和所述第二音频指纹与存储的音频指纹的数据库进行比较。
15.根据权利要求14所述的方法,其中将所述第一音频指纹和所述第二音频指纹与存储的音频指纹的数据库进行比较包括:
组合所述第一音频指纹和所述第二音频指纹以生成组合音频指纹;和
将所述组合音频指纹与存储的音频指纹的数据库进行比较。
16.一种方法,该方法包括:
编辑收听计数点数据库,所述收听计数点数据库反映用户对多首歌曲的参与水平,其中所述数据库包括与歌曲的播放相关的时空信息;
识别与时空事件相关联的多个图像;
识别多首歌曲,所述多首歌曲具有接近所选择的时空事件的时空信息的播放;
将识别的图像和识别的歌曲作为音乐幻灯片呈现给所述用户。
17.根据权利要求16所述的方法,其中识别多首歌曲包括识别具有高收听计数点值的歌曲。
18.一种***,包括处理器和存储有指令的非瞬时性计算机存储介质,当在所述处理器上执行时,所述指令执行以下功能:
识别正在播放的歌曲;
操作便携式用户设备以在播放所述歌曲期间检测用户的至少一个动作;
基于所述至少一个用户动作来确定用户对所述歌曲的参与水平;和
基于所述用户的参与水平来更新所述歌曲的收听计数点值。
19.根据权利要求18所述的***,其中所述指令还可操作以基于所述多首歌曲的相应收听计数点值生成播放列表。
20.根据权利要求19所述的***,其中所述指令还可操作以针对所述用户播放所述播放列表。
CN201580071492.6A 2014-12-31 2015-11-25 用于创建收听日志和音乐库的***和方法 Expired - Fee Related CN107111642B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462098750P 2014-12-31 2014-12-31
US62/098,750 2014-12-31
PCT/US2015/062723 WO2016109069A1 (en) 2014-12-31 2015-11-25 Systems and methods for creation of a listening log and music library

Publications (2)

Publication Number Publication Date
CN107111642A true CN107111642A (zh) 2017-08-29
CN107111642B CN107111642B (zh) 2020-12-18

Family

ID=55025343

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580071492.6A Expired - Fee Related CN107111642B (zh) 2014-12-31 2015-11-25 用于创建收听日志和音乐库的***和方法

Country Status (6)

Country Link
US (1) US10860645B2 (zh)
EP (1) EP3241124A1 (zh)
JP (1) JP2018505442A (zh)
KR (1) KR102436168B1 (zh)
CN (1) CN107111642B (zh)
WO (1) WO2016109069A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109726332A (zh) * 2019-01-11 2019-05-07 何梓菁 一种基于自学习的个性化音乐推送方法和***
CN110622155A (zh) * 2017-10-03 2019-12-27 谷歌有限责任公司 将音乐识别为特定歌曲
CN113177136A (zh) * 2021-04-27 2021-07-27 桂林电子科技大学 基于注意力的音频和歌词的多模态音乐风格分类方法
CN113590076A (zh) * 2021-07-12 2021-11-02 杭州网易云音乐科技有限公司 一种音频处理方法及装置

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2599877B (en) * 2016-08-24 2022-10-12 Grass Valley Ltd Comparing video sequences using fingerprints
CA3065933A1 (en) * 2017-06-01 2018-12-06 Push Through Innovation Corp Interest-based and bibliographical data-based multimedia content exploration, curation and organization
WO2019032543A1 (en) * 2017-08-10 2019-02-14 Bose Corporation VEHICLE AUDIO SYSTEM WITH REVERB PRESENTED CONTENT
US20190236208A1 (en) * 2018-02-01 2019-08-01 Nano Shield Technology Co., Ltd. Smart speaker with music recognition
US10659907B2 (en) * 2018-02-06 2020-05-19 Plantronics, Inc. System for distraction avoidance via soundscaping and headset coordination
WO2019241153A1 (en) * 2018-06-10 2019-12-19 Brave Software, Inc. Attention application user classification privacy
US20200081681A1 (en) * 2018-09-10 2020-03-12 Spotify Ab Mulitple master music playback
KR102495888B1 (ko) * 2018-12-04 2023-02-03 삼성전자주식회사 사운드를 출력하기 위한 전자 장치 및 그의 동작 방법
KR20200079155A (ko) * 2018-12-24 2020-07-02 현대자동차주식회사 차량 오디오 시스템의 음악 재생 방법 및 그 방법이 적용된 차량 오디오 시스템
US10931972B2 (en) * 2019-01-24 2021-02-23 Dell Products, L.P. Forward channel contextual error concealment and sync for virtual, augmented, or mixed reality (XR) content in connectivity-constrained environments
EP3941034B1 (en) * 2019-03-12 2023-06-28 Panasonic Intellectual Property Management Co., Ltd. Reproduction device and method for controlling same
EP3739469A1 (de) 2019-05-17 2020-11-18 GIRA GIERSIEPEN GmbH & Co. KG System und verfahren für die musikwiedergabe in einem gebäudenetzwerk
KR20210072979A (ko) * 2019-12-10 2021-06-18 현대자동차주식회사 차량의 avn 및 그의 미디어 재생 방법
CN111488485B (zh) * 2020-04-16 2023-11-17 北京雷石天地电子技术有限公司 基于卷积神经网络的音乐推荐方法、存储介质和电子装置
US11810425B1 (en) 2020-05-04 2023-11-07 Khalid Reede Jones Methods and systems for tokenization of music listening
US11418879B2 (en) * 2020-05-13 2022-08-16 Nxp B.V. Audio signal blending with beat alignment
US11553247B2 (en) 2020-08-20 2023-01-10 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on thermal imaging and facial recognition
US11763591B2 (en) * 2020-08-20 2023-09-19 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on voice recognition, thermal imaging, and facial recognition
JP7447737B2 (ja) 2020-08-31 2024-03-12 株式会社Jvcケンウッド 音楽再生装置及び音楽再生プログラム
KR102439201B1 (ko) * 2020-09-14 2022-09-01 네이버 주식회사 멀티미디어 콘텐츠와 음원을 동기화하기 위한 전자 장치 및 그의 동작 방법
US11410678B2 (en) * 2021-01-14 2022-08-09 Cirrus Logic, Inc. Methods and apparatus for detecting singing
US11893985B2 (en) * 2021-01-15 2024-02-06 Harman International Industries, Incorporated Systems and methods for voice exchange beacon devices
CN112883222B (zh) * 2021-01-21 2022-12-16 咪咕音乐有限公司 歌曲的推荐播放方法、电子设备及计算机可读存储介质
US20220291743A1 (en) * 2021-03-11 2022-09-15 Apple Inc. Proactive Actions Based on Audio and Body Movement
CN112883224B (zh) * 2021-03-12 2023-11-28 腾讯音乐娱乐科技(深圳)有限公司 一种音频指纹检索库更新方法、装置、设备及介质
US20220327159A1 (en) * 2021-04-12 2022-10-13 Ranidu Lankage Audio recommendation system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1885285A (zh) * 2005-06-24 2006-12-27 鸿富锦精密工业(深圳)有限公司 一种播放列表生成***及方法
CN102308295A (zh) * 2009-02-10 2012-01-04 索尼爱立信移动通讯有限公司 音乐剖析
KR20140031422A (ko) * 2012-08-28 2014-03-13 에스케이플래닛 주식회사 사용자 상황에 따른 음악감상 서비스 시스템 및 방법
JP2014516189A (ja) * 2011-06-08 2014-07-07 シャザム エンターテインメント リミテッド 受信データの比較を実行しその比較に基づいて後続サービスを提供する方法及びシステム
CN104094303A (zh) * 2012-01-23 2014-10-08 索尼爱立信移动通讯有限公司 用于自动评价音乐乐曲的方法和便携式电子装置
CN104199876A (zh) * 2014-08-20 2014-12-10 广州三星通信技术研究有限公司 关联乐曲与图片的方法和装置
CN204020744U (zh) * 2014-08-15 2014-12-17 深圳市赛格导航科技股份有限公司 具有降噪双麦克风的车机手机互联***

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120198A (ja) 1997-10-20 1999-04-30 Sony Corp 楽曲検索装置
US6990453B2 (en) 2000-07-31 2006-01-24 Landmark Digital Services Llc System and methods for recognizing sound and music signals in high noise and distortion
US20020157034A1 (en) 2001-02-21 2002-10-24 Koninklijke Philips Electronics N.V. Data streaming system substituting local content for unicasts
GB2379016A (en) 2001-07-27 2003-02-26 Hewlett Packard Co Portable apparatus monitoring reaction of user to music
JP2005228455A (ja) * 2004-02-16 2005-08-25 Sharp Corp 再生データ処理装置および再生データ処理方法
US20060248235A1 (en) * 2005-03-21 2006-11-02 Sony Corporation Method and apparatus for data collection in a media player
JP2006331533A (ja) * 2005-05-26 2006-12-07 Matsushita Electric Ind Co Ltd 音声コンテンツ自動選択装置
JP4403415B2 (ja) 2005-09-20 2010-01-27 ソニー株式会社 コンテンツ再生方法およびコンテンツ再生装置
US8156118B2 (en) * 2007-08-20 2012-04-10 Samsung Electronics Co., Ltd. Method and system for generating playlists for content items
US7890623B2 (en) * 2007-12-27 2011-02-15 International Business Machines Corporation Generating data for media playlist construction in virtual environments
US8642872B2 (en) * 2008-03-03 2014-02-04 Microsoft Corporation Music steering with automatically detected musical attributes
US20100023328A1 (en) * 2008-07-28 2010-01-28 Griffin Jr Paul P Audio Recognition System
US20100131558A1 (en) 2008-11-19 2010-05-27 Logan James D System and method for managing copyright licensing
US20100228740A1 (en) 2009-03-09 2010-09-09 Apple Inc. Community playlist management
US8064819B2 (en) 2009-04-17 2011-11-22 Apple Inc. Seamless switching between radio and local media
US8331966B2 (en) 2009-05-15 2012-12-11 Apple Inc. Content selection based on simulcast data
JP5440051B2 (ja) * 2009-09-11 2014-03-12 株式会社Jvcケンウッド コンテンツ同定方法、コンテンツ同定システム、コンテンツ検索装置及びコンテンツ利用装置
WO2012001566A1 (en) * 2010-06-30 2012-01-05 Koninklijke Philips Electronics N.V. Methods and apparatus for capturing ambience
JP2012181884A (ja) * 2011-02-28 2012-09-20 Pioneer Electronic Corp 楽曲再生装置、楽曲再生方法、楽曲再生プログラムおよび楽曲再生方法を格納した記録媒体
US20120274547A1 (en) 2011-04-29 2012-11-01 Logitech Inc. Techniques for content navigation using proximity sensing
US20140056433A1 (en) * 2012-05-13 2014-02-27 Harry E. Emerson, III Discovery of music artist and title by a smart phone provisioned to always listen
GB201214842D0 (en) 2012-08-21 2012-10-03 Omnifone Ltd Content tracker
US20140067827A1 (en) * 2012-09-05 2014-03-06 Google Inc. Automatically generating music playlists based on an implicitly selected seed
US20140074783A1 (en) 2012-09-09 2014-03-13 Apple Inc. Synchronizing metadata across devices
US10447826B2 (en) * 2013-03-14 2019-10-15 Google Llc Detecting user interest in presented media items by observing volume change events
US20140335834A1 (en) 2013-05-12 2014-11-13 Harry E Emerson, III Discovery of music artist and title by a smart phone provisioned to listen to itself
US9575971B2 (en) * 2013-06-28 2017-02-21 Harman International Industries, Incorporated Intelligent multimedia system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1885285A (zh) * 2005-06-24 2006-12-27 鸿富锦精密工业(深圳)有限公司 一种播放列表生成***及方法
CN102308295A (zh) * 2009-02-10 2012-01-04 索尼爱立信移动通讯有限公司 音乐剖析
JP2014516189A (ja) * 2011-06-08 2014-07-07 シャザム エンターテインメント リミテッド 受信データの比較を実行しその比較に基づいて後続サービスを提供する方法及びシステム
CN104094303A (zh) * 2012-01-23 2014-10-08 索尼爱立信移动通讯有限公司 用于自动评价音乐乐曲的方法和便携式电子装置
KR20140031422A (ko) * 2012-08-28 2014-03-13 에스케이플래닛 주식회사 사용자 상황에 따른 음악감상 서비스 시스템 및 방법
CN204020744U (zh) * 2014-08-15 2014-12-17 深圳市赛格导航科技股份有限公司 具有降噪双麦克风的车机手机互联***
CN104199876A (zh) * 2014-08-20 2014-12-10 广州三星通信技术研究有限公司 关联乐曲与图片的方法和装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110622155A (zh) * 2017-10-03 2019-12-27 谷歌有限责任公司 将音乐识别为特定歌曲
CN109726332A (zh) * 2019-01-11 2019-05-07 何梓菁 一种基于自学习的个性化音乐推送方法和***
CN113177136A (zh) * 2021-04-27 2021-07-27 桂林电子科技大学 基于注意力的音频和歌词的多模态音乐风格分类方法
CN113177136B (zh) * 2021-04-27 2022-04-22 桂林电子科技大学 基于注意力的音频和歌词的多模态音乐风格分类方法
CN113590076A (zh) * 2021-07-12 2021-11-02 杭州网易云音乐科技有限公司 一种音频处理方法及装置
CN113590076B (zh) * 2021-07-12 2024-03-29 杭州网易云音乐科技有限公司 一种音频处理方法及装置

Also Published As

Publication number Publication date
US10860645B2 (en) 2020-12-08
KR102436168B1 (ko) 2022-08-24
JP2018505442A (ja) 2018-02-22
CN107111642B (zh) 2020-12-18
KR20170100007A (ko) 2017-09-01
US20190042647A1 (en) 2019-02-07
WO2016109069A1 (en) 2016-07-07
EP3241124A1 (en) 2017-11-08

Similar Documents

Publication Publication Date Title
CN107111642A (zh) 用于创建收听日志和音乐库的***和方法
CN103237248B (zh) 基于媒体反应来***体节目
US9639854B2 (en) Voice-controlled information exchange platform, such as for providing information to supplement advertising
WO2016127905A1 (zh) 信息推送方法及装置
US20150242864A1 (en) Methods and systems for conducting research operations
CN103207675A (zh) 制作媒体节目集锦或扩充媒体节目
US10909474B2 (en) Triggering an automatic creation of an event stamp
CN106464758A (zh) 利用用户信号来发起通信
CN109040297A (zh) 用户画像生成方法及装置
Kjus Reclaiming the music: The power of local and physical music distribution in the age of global online services
US20150128071A1 (en) System and method for providing social network service
CN103488669B (zh) 信息处理设备、信息处理方法和程序
KR101924205B1 (ko) 노래방 시스템 및 그의 관리 방법
US20170006101A1 (en) Adding a card to a mash guide/proximity grid
CN107690815A (zh) 个性化媒体传送
JP5779938B2 (ja) プレイリスト作成装置、プレイリスト作成方法及びプレイリスト作成プログラム
CN110493635A (zh) 视频播放方法、装置及终端
US20170004529A1 (en) Mash guide/proximity grid
US20200364621A1 (en) Grid card (or geo tag)
US11095945B2 (en) Information processing device, method, and program
US10492035B2 (en) Group communication apparatus and group communication method
CN108431795A (zh) 用于信息捕获和呈现的方法和设备
US20170005972A1 (en) Geotag
CN116415061A (zh) 一种服务推荐方法及相关装置
US20150142924A1 (en) Method for providing contents and electronic device using the same

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201218

Termination date: 20211125