视频源聚类的实现方法及实现系统.pdf

上传人:li****8 文档编号:4900774 上传时间:2018-11-26 格式:PDF 页数:12 大小:470.36KB
返回 下载 相关 举报
摘要
申请专利号:

CN201210058592.3

申请日:

2012.03.07

公开号:

CN103309865A

公开日:

2013.09.18

当前法律状态:

授权

有效性:

有权

法律详情:

登录超时

IPC分类号:

G06F17/30

主分类号:

G06F17/30

申请人:

腾讯科技(深圳)有限公司

发明人:

胡鹏; 张子鋆

地址:

518044 广东省深圳市福田区振兴路赛格科技园2栋东403室

优先权:

专利代理机构:

广州华进联合专利商标代理有限公司 44224

代理人:

何平;曾旻辉

PDF下载: PDF下载
内容摘要

本发明涉及一种视频源聚类的实现方法及实现系统。该方法包括以下步骤:获取对视频源的字幕的搜索请求;根据所述搜索请求搜索得到目标字幕;将所述目标字幕与所述视频源进行匹配;接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。上述视频源聚类的实现方法及实现系统,采用将获取的目标字幕与视频源匹配后,接收并存储上报的将目标字幕与视频源进行关联生成的关联结果,将相同内容的视频源聚类在一起,如此仅需利用用户观看视频源下载字幕的主动行为,减少了人员的投入,降低了人力成本,且提高了效率。

权利要求书

权利要求书
1.   一种视频源聚类的实现方法,包括以下步骤:
获取对视频源的字幕的搜索请求;
根据所述搜索请求搜索得到目标字幕;
将所述目标字幕与所述视频源进行匹配;
接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。

2.   根据权利要求1所述的视频源聚类的实现方法,其特征在于,在将所述目标字幕与所述视频源进行匹配的步骤之后,还包括步骤:若匹配成功,则获取所述视频源的元数据及目标字幕的元数据,并将所述视频源的元数据与所述目标字幕的元数据进行关联,生成关联结果,并上报所述关联结果。

3.   根据权利要求2所述的视频源聚类的实现方法,其特征在于,所述元数据包括指纹和时长,所述方法还包括步骤:判断目标字幕的时长与所述视频源的时长差值绝对值是否小于预设误差阈值,若是,则建立目标字幕的指纹与视频源指纹之间的映射关系,并存储所述映射关系,若否,则丢弃所述关联结果。

4.   根据权利要求3所述的视频源聚类的实现方法,其特征在于,还包括步骤:统计同一关联结果的上报次数;建立目标字幕的指纹与视频源指纹和上报次数之间的映射关系,并存储所述映射关系。

5.   根据权利要求3所述的视频源聚类的实现方法,其特征在于,所述将所述视频源的元数据与所述目标字幕的元数据进行关联的步骤包括:将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。

6.   根据权利要求2所述的视频源聚类的实现方法,其特征在于,所述将所述目标字幕与所述视频源进行匹配的步骤包括:在播放所述视频源及目标字幕时,判断所述视频源播放时长是否大于预设播放时长阈值,若所述视频源播放时长大于所述预设播放时长阈值,则为匹配成功。

7.   一种视频源聚类的实现系统,其特征在于,包括:
请求获取模块,用于获取对视频源的字幕的搜索请求;
搜索模块,用于根据所述搜索请求搜索得到目标字幕;
匹配模块,用于将所述目标字幕与所述视频源进行匹配;
片源聚类模块,用于接收上报的将目标字幕与视频源进行关联生成的关联结果,并将其存入聚类数据库。

8.   根据权利要求7所述的视频源聚类的实现系统,其特征在于,还包括:
元数据获取模块,用于在匹配成功时,获取所述视频源的元数据及目标字幕的元数据;
关联上报模块,用于将所述视频源的元数据与所述目标字幕的元数据进行关联,生成关联结果,并上报所述关联结果。

9.   根据权利要求8所述的视频源聚类的实现系统,其特征在于,所述元数据包括指纹和时长,所述片源聚类模块包括:
判断单元,用于判断目标字幕的时长与所述视频源的时长差值绝对值是否小于预设误差阈值;
关系建立单元,用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值小于预设误差阈值时,建立目标字幕的指纹与视频源指纹之间的映射关系,并将所述映射关系存入所述聚类数据库;
丢弃单元,用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值不小于预设误差阈值时,丢弃所述关联结果。

10.   根据权利要求9所述的视频源聚类的实现系统,其特征在于,还包括:
统计模块,用于统计同一关联结果的上报次数;
所述关系建立单元还用于建立目标字幕的指纹与视频源指纹和上报次数之间的映射关系,并存储所述映射关系。

11.   根据权利要求9所述的视频源聚类的实现系统,其特征在于,所述关联上报模块还用于将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。

12.   根据权利要求8所述的视频源聚类的实现系统,其特征在于,所述匹配模块还用于在播放所述视频源及目标字幕时,判断所述视频源播放时长是否大于预设播放时长阈值,若所述视频源播放时长大于所述预设播放时长阈值,则为匹配成功。

说明书

说明书视频源聚类的实现方法及实现系统
【技术领域】
本发明涉及多媒体技术,特别涉及一种视频源聚类的实现方法及实现系统。
【背景技术】
随着多媒体和互联网技术的高速发展,互联网用户对多媒体内容尤其是视频源的需求日益增长。同一部影视作品会以不同的质量参数(如不同的音视频编码格式、不同的码率、不同的分辨率)分布于网络中的各个存储服务器上。
面对海量的视频,将相同内容的视频源进行聚类,可为用户带来更好的应用体验。例如,可针对终端性能匹配内容相同但分辨率不同的视频源,以保证终端能够流畅播放,以及在线播放服务能力不足时可切换到内容相同的其他格式进行播放。
传统的对视频源进行聚类的方法主要是依靠视频源文件名称中的关键字信息加上人工审核的方式来判断两部视频源是否具备相同的内容,该方法需要耗费大量的时间且需投入大量的人力,成本较高且效率较低。
【发明内容】
基于此,有必要提供一种能降低成本且提高效率的视频源聚类的实现方法。
一种视频源聚类的实现方法,包括以下步骤:
获取对视频源的字幕的搜索请求;
根据所述搜索请求搜索得到目标字幕;
将所述目标字幕与所述视频源进行匹配;
接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。
优选的,在将所述目标字幕与所述视频源进行匹配的步骤之后,还包括步骤:若匹配成功,则获取所述视频源的元数据及目标字幕的元数据,并将所述视频源的元数据与所述目标字幕的元数据进行关联,生成关联结果,并上报所述关联结果。
优选的,所述元数据包括指纹和时长,所述方法还包括步骤:判断目标字幕的时长与所述视频源的时长差值绝对值是否小于预设误差阈值,若是,则建立目标字幕的指纹与视频源指纹之间的映射关系,并存储所述映射关系,若否,则丢弃所述关联结果。
优选的,还包括步骤:统计同一关联结果的上报次数;建立目标字幕的指纹与视频源指纹和上报次数之间的映射关系,并存储所述映射关系。
优选的,所述将所述视频源的元数据与所述目标字幕的元数据进行关联的步骤包括:将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。
优选的,所述将所述目标字幕与所述视频源进行匹配的步骤包括:在播放所述视频源及目标字幕时,判断所述视频源播放时长是否大于预设播放时长阈值,若所述视频源播放时长大于所述预设播放时长阈值,则为匹配成功。
此外,还有必要提供一种能降低成本且提高工作效率的视频源聚类的实现方法。
一种视频源聚类的实现系统,包括:
请求获取模块,用于获取对视频源的字幕的搜索请求;
搜索模块,用于根据所述搜索请求搜索得到目标字幕;
匹配模块,用于将所述目标字幕与所述视频源进行匹配;
片源聚类模块,用于接收上报的将目标字幕与视频源进行关联生成的关联结果,并将其存入聚类数据库。
优选的,还包括:
元数据获取模块,用于在匹配成功时,获取所述视频源的元数据及目标字幕的元数据;
关联上报模块,用于将所述视频源的元数据与所述目标字幕的元数据进行关联,生成关联结果,并上报所述关联结果。
优选的,所述元数据包括指纹和时长,所述片源聚类模块包括:
判断单元,用于判断目标字幕的时长与所述视频源的时长差值绝对值是否小于预设误差阈值;
关系建立单元,用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值小于预设误差阈值时,建立目标字幕的指纹与视频源指纹之间的映射关系,并将所述映射关系存入所述聚类数据库;
丢弃单元,用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值不小于预设误差阈值时,丢弃所述关联结果。
优选的,还包括:
统计模块,用于统计同一关联结果的上报次数;
所述关系建立单元还用于建立目标字幕的指纹与视频源指纹和上报次数之间的映射关系,并存储所述映射关系。
优选的,所述关联上报模块还用于将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。
优选的,所述匹配模块还用于在播放所述视频源及目标字幕时,判断所述视频源播放时长是否大于预设播放时长阈值,若所述视频源播放时长大于所述预设播放时长阈值,则为匹配成功。
上述视频源聚类的实现方法及实现系统,采用将获取的目标字幕与视频源匹配后,接收并存储上报的将目标字幕与视频源进行关联生成的关联结果,可将相同内容的视频源聚类在一起,如此仅需利用用户观看视频源下载字幕的主动行为,不需额外的人工干预,减少了人员的投入,降低了人力成本,且提高了效率。
【附图说明】
图1为一个实施例中视频源聚类的实现方法的流程图;
图2为另一个实施例中视频源聚类的实现方法的流程图;
图3为一个实施例中视频源聚类的实现系统的结构示意图;
图4为图3中片源聚类模块的内部结构示意图;
图5为另一个实施例中视频源聚类的实现系统的结构示意图。
【具体实施方式】
下面结合具体的实施例及附图对技术方案进行详细的描述。
如图1所示,在一个实施例中,一种视频源聚类的实现方法,包括以下步骤:
步骤S110,获取对视频源的字幕的搜索请求。
本实施例中,客户端获取用户观看本地视频源时,通过键盘、触摸屏等输入设备输入的影片名称的关键字,根据该关键字发起的搜索外挂字幕的搜索请求,并向服务端发起搜索请求。其中,影片名称为视频源中内容的名称。
步骤S120,根据搜索请求搜索得到目标字幕。
本实施例中,服务端接收到搜索请求后,从字幕数据库中查找与所述关键字相关的候选字幕,并将相关性最高的至少一组候选字幕及其元数据返回给客户端,客户端获取用户从候选字幕选取的字幕作为目标字幕。服务端也可将得到的相关性最高的一组候选字幕作为目标字幕,将目标字幕及其元数据返回给客户端。其中,元数据包括指纹和时长,还可包括语言种类等。字幕的指纹可为字幕的分段哈希值或全段哈希值,其用来唯一标识字幕。其中,字幕数据库可通过订制的字幕爬虫建立,也可通过人工整理录入建立,或两种方式有效组合。
相关性可采用用户输入的影片名称的关键字和字幕的文件名的编辑距离计算得到。例如,影片名称的关键字为test,字幕的文件名为test,则两者的编辑距离为0,若字幕的文件名为tent,则两者的编辑距离为1。
步骤S130,将目标字幕与视频源进行匹配。
本实施例中,获取用户从搜索得到的相关性最高的候选字幕中选取目标字幕。然后,将目标字幕与视频源进行匹配。
进一步的,在一个实施例中,步骤S130包括:在播放视频源及目标字幕时,判断视频源播放时长是否大于预设播放时长阈值,若视频源播放时长大于所述预设播放阈值,则为匹配成功。播放视频源及目标字幕,客户端检测到该播放时长大于预设播放时长阈值,则表示匹配成功。其中,预设的播放时长阈值可为视频源总播放时长的百分比,如视频源总播放时长的5%的时间。
进一步的,在一个实施例中,在步骤S130之后,还包括步骤:若匹配成功,则可获取视频源的元数据和目标字幕的元数据,并将两者进行关联,生成关联结果,并上报关联结果,若匹配不成功,则丢弃该目标字幕,可重新返回获取从相关的候选字幕中选取目标字幕的步骤。
本实施例中,元数据包括指纹和时长。视频源的指纹和目标字幕的指纹可通过计算其相应的哈希值得到。
进一步的,在一个实施例中,将视频源的元数据与目标字幕的元数据进行关联的步骤包括:将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。
步骤S140,接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。
本实施例中,服务端接收到该关联结果后,并存储该关联结果,以便后续根据字幕查找到相同内容的视频源。
在一个实施例中,如图2所示,上述视频源聚类的实现方法,步骤S110至步骤S130与图1中相同,其区别在于,在步骤S130之后,还包括:
步骤S141,若匹配成功,获取视频源的元数据及目标字幕的元数据,并将视频源的元数据与所述目标字幕的元数据进行关联,生成关联结果,并上报所述关联结果。
步骤S150,接收关联结果。
步骤S160,判断目标字幕的时长与视频源的时长差值绝对值是否小于预设误差阈值,若是,执行步骤S170,若否,则执行步骤S180。
本实施例中,预设误差阈值是指允许视频源的时长与字幕的时长之间存在一定的误差,但不影响其观看效果。当目标字幕的时长与视频源的时长差值绝对值小于误差阈值时,建立两者指纹之间的映射关系,并将该映射关系存储到聚类数据库中;当目标字幕的时长与视频源的时长差值绝对值不小于误差阈值时,则丢弃该关联结果,即不需记录目标字幕的元数据与视频源的元数据之间的关联。
步骤S170,建立目标字幕的指纹与视频源指纹之间的映射关系,并存储该映射关系。
在一个实施例中,在步骤S170之前,还包括步骤:统计同一关联结果的上报次数。具体的,不同的用户可能选择了相同的视频源及相同的字幕,客户端将其进行关联,然后将关联结果上报到服务端,服务端统计该关联结果的上报次数。例如,客户端A上报视频源a和字幕b的关联结果,客户端B也上报视频源a和字幕b,则上报次数为2。
在统计同一关联结果的上报次数后,还包括步骤:建立目标字幕的指纹与视频源的指纹、上报次数之间的映射关系,并存储该映射关系。统计了上报次数,并建立目标字幕的指纹与视频源的指纹和上报次数之间的映射关系,如此,上报次数越多,该目标字幕与视频源的匹配度越高,提高了对视频源聚类的准确性。
步骤S180,丢弃该关联结果。
如图3所示,在一个实施例中,一种视频源聚类的实现系统,包括请求获取模块110、搜索模块120、匹配模块130和片源聚类模块140。其中:
请求获取模块110,用于获取视频源的字幕的搜索请求。
本实施例中,客户端获取用户观看本地视频源时,通过键盘、触摸屏等输入设备输入的影片名称的关键字,根据该关键字发起的搜索外挂字幕的搜索请求,并向服务端发起搜索请求。其中,影片名称为视频源中内容的名称。其中,字幕数据库可通过订制的字幕爬虫建立,也可通过人工整理录入建立,或两种方式有效组合。
搜索模块120,用于根据该搜索请求搜索得到目标字幕。
本实施例中,服务端接收到搜索请求后,从字幕数据库中查找与所述关键字相关的候选字幕,并将相关性最高的至少一组候选字幕及其元数据返回给客户端,客户端获取用户从候选字幕选取的字幕作为目标字幕。服务端也可将得到的相关性最高的一组候选字幕作为目标字幕,将目标字幕及其元数据返回给客户端。其中,元数据包括指纹和时长,还可包括语言种类等。字幕的指纹可为字幕的分段哈希值或全段哈希值,其用来唯一标识字幕。
相关性可采用用户输入的影片名称的关键字和字幕的文件名的编辑距离计算得到。例如,影片名称的关键字为test,字幕的文件名为test,则两者的编辑距离为0,若字幕的文件名为tent,则两者的编辑距离为1。
匹配模块130,用于将目标字幕与视频源进行匹配。
在一个实施例中,匹配模块130还用于在播放视频源及目标字幕时,判断视频源播放时长是否大于预设播放时长阈值,若视频源播放时长大于所述预设播放阈值,则为匹配成功。播放视频源及目标字幕,客户端检测到该播放时长大于预设播放时长阈值,则表示匹配成功。其中,预设的播放时长阈值可为视频源总播放时长的百分比,如视频源总播放时长的5%的时间。若匹配成功,则可获取视频源的元数据和目标字幕的元数据,并将两者进行关联,生成关联结果,并上报关联结果,若匹配不成功,则丢弃该目标字幕,可重新获取从相关的候选字幕中选取目标字幕。
片源聚类模块140,用于接收上报的将目标字幕与视频源进行关联生成的关联结果,并将其存入聚类数据库。
本实施例中,片源聚类模块140接收到该关联结果后,并存储该关联结果,以便后续根据字幕查找到相同内容的视频源。
如图5所示,在一个实施例中,上述视频源聚类的实现系统,除了包括请求获取模块110、搜索模块120、匹配模块130和片源聚类模块140,还包括元数据获取模块150、关联上报模块160和统计模块170。
元数据获取模块150,用于在匹配成功时,获取视频源的元数据及目标字幕的元数据。
本实施例中,元数据包括指纹和时长。视频源的指纹和目标字幕的指纹可通过计算其相应的哈希值得到。元数据获取模块150可包括视频源指纹计算模块和字幕指纹计算模块。视频源指纹计算模块用于计算视频源的指纹,字幕指纹计算模块用于计算字幕的指纹。
关联上报模块160,用于将视频源的元数据与目标字幕的元数据进行关联,生成关联结果,并上报该关联结果。在一个实施例中,关联上报模块160还用于将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。
片源聚类模块140还用于接收该关联结果,并将其存入聚类数据库。
元数据包括指纹和时长。在一个实施例中,如图4所示,片源聚类模块140包括判断单元141、关系建立单元143和丢弃单元145。其中:
判断单元141,用于判断目标字幕的时长与视频源的时长差值绝对值是否小于预设误差阈值。本实施例中,预设误差阈值是指允许视频源的时长与字幕的时长之间存在一定的误差,但不影响其观看效果。
当目标字幕的时长与视频源的时长差值绝对值小于误差阈值时,关系建立单元143建立两者指纹之间的映射关系,并将该映射关系存储到聚类数据库中;当目标字幕的时长与视频源的时长差值绝对值不小于误差阈值时,则丢弃单元145丢弃该关联结果,即不需记录目标字幕的元数据与视频源的元数据之间的关联。
统计模块170,用于统计同一关联结果的上报次数。具体的,不同的用户可能选择了相同的视频源及相同的字幕,关联上报模块160将其进行关联,然后将关联结果上报到服务端,统计模块170统计该关联结果的上报次数。例如,客户端A上报视频源a和字幕b的关联结果,客户端B也上报视频源a和字幕b,则上报次数为2。
关系建立单元143还用于建立目标字幕的指纹与视频源指纹和上报次数之间的映射关系,并存储所述映射关系。
统计了上报次数,并建立目标字幕的指纹与视频源的指纹和上报次数之间的映射关系,如此,上报次数越多,该目标字幕与视频源的匹配度越高,提高了对视频源聚类的准确性。
此外,请求获取模块110、匹配模块130、元数据获取模块150和关联上报模块160可设在客户端上,搜索模块120、片源聚类模块140、统计模块170和聚类数据库可设在服务端上。
上述视频源聚类的实现方法及实现系统,采用将获取的目标字幕与视频源匹配后,接收并存储上报的将目标字幕与视频源进行关联生成的关联结果,可将相同内容的视频源聚类在一起,如此仅需利用用户观看视频源下载字幕的主动行为,不需额外的人工干预,减少了人员的投入,降低了人力成本,且提高了效率。
另外,将相同内容的视频源聚类在一起后,方便根据不同的终端设备的计算性能提供不同质量参数的视频源来保证终端设备的播放流畅,以及在线点播服务能力不足时能切换到内容相同的其他格式的视频源进行播放来保证播放流畅。
此外,通过判断目标字幕的时长与视频源时长的差值绝对值是否小于预设误差阈值,过滤一部分关联结果,提高了聚类的准确性;通过统计上报次数,建立目标字幕的指纹与视频源的指纹和上报次数的映射关系,上报次数越高,其目标字幕与视频源的匹配度越高,聚类的准确性越高;通过判断播放时长是否大于预设播放时长阈值,判断目标字幕与视频源的匹配度,操作方便。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

视频源聚类的实现方法及实现系统.pdf_第1页
第1页 / 共12页
视频源聚类的实现方法及实现系统.pdf_第2页
第2页 / 共12页
视频源聚类的实现方法及实现系统.pdf_第3页
第3页 / 共12页
点击查看更多>>
资源描述

《视频源聚类的实现方法及实现系统.pdf》由会员分享,可在线阅读,更多相关《视频源聚类的实现方法及实现系统.pdf(12页珍藏版)》请在专利查询网上搜索。

1、(10)申请公布号 CN 103309865 A (43)申请公布日 2013.09.18 CN 103309865 A *CN103309865A* (21)申请号 201210058592.3 (22)申请日 2012.03.07 G06F 17/30(2006.01) (71)申请人 腾讯科技 (深圳) 有限公司 地址 518044 广东省深圳市福田区振兴路赛 格科技园 2 栋东 403 室 (72)发明人 胡鹏 张子鋆 (74)专利代理机构 广州华进联合专利商标代理 有限公司 44224 代理人 何平 曾旻辉 (54) 发明名称 视频源聚类的实现方法及实现系统 (57) 摘要 本发明涉。

2、及一种视频源聚类的实现方法及 实现系统。该方法包括以下步骤 : 获取对视频源 的字幕的搜索请求 ; 根据所述搜索请求搜索得到 目标字幕 ; 将所述目标字幕与所述视频源进行匹 配 ; 接收并存储上报的将目标字幕与视频源进行 关联生成的关联结果。上述视频源聚类的实现方 法及实现系统, 采用将获取的目标字幕与视频源 匹配后, 接收并存储上报的将目标字幕与视频源 进行关联生成的关联结果, 将相同内容的视频源 聚类在一起, 如此仅需利用用户观看视频源下载 字幕的主动行为, 减少了人员的投入, 降低了人力 成本, 且提高了效率。 (51)Int.Cl. 权利要求书 2 页 说明书 6 页 附图 3 页 (。

3、19)中华人民共和国国家知识产权局 (12)发明专利申请 权利要求书2页 说明书6页 附图3页 (10)申请公布号 CN 103309865 A CN 103309865 A *CN103309865A* 1/2 页 2 1. 一种视频源聚类的实现方法, 包括以下步骤 : 获取对视频源的字幕的搜索请求 ; 根据所述搜索请求搜索得到目标字幕 ; 将所述目标字幕与所述视频源进行匹配 ; 接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。 2. 根据权利要求 1 所述的视频源聚类的实现方法, 其特征在于, 在将所述目标字幕与 所述视频源进行匹配的步骤之后, 还包括步骤 : 若匹配成功, 则获。

4、取所述视频源的元数据及 目标字幕的元数据, 并将所述视频源的元数据与所述目标字幕的元数据进行关联, 生成关 联结果, 并上报所述关联结果。 3. 根据权利要求 2 所述的视频源聚类的实现方法, 其特征在于, 所述元数据包括指纹 和时长, 所述方法还包括步骤 : 判断目标字幕的时长与所述视频源的时长差值绝对值是否 小于预设误差阈值, 若是, 则建立目标字幕的指纹与视频源指纹之间的映射关系, 并存储所 述映射关系, 若否, 则丢弃所述关联结果。 4. 根据权利要求 3 所述的视频源聚类的实现方法, 其特征在于, 还包括步骤 : 统计同一 关联结果的上报次数 ; 建立目标字幕的指纹与视频源指纹和上报。

5、次数之间的映射关系, 并 存储所述映射关系。 5. 根据权利要求 3 所述的视频源聚类的实现方法, 其特征在于, 所述将所述视频源的 元数据与所述目标字幕的元数据进行关联的步骤包括 : 将目标字幕的指纹和时长、 视频源 的指纹和时长拼接在一起。 6. 根据权利要求 2 所述的视频源聚类的实现方法, 其特征在于, 所述将所述目标字幕 与所述视频源进行匹配的步骤包括 : 在播放所述视频源及目标字幕时, 判断所述视频源播 放时长是否大于预设播放时长阈值, 若所述视频源播放时长大于所述预设播放时长阈值, 则为匹配成功。 7. 一种视频源聚类的实现系统, 其特征在于, 包括 : 请求获取模块, 用于获取。

6、对视频源的字幕的搜索请求 ; 搜索模块, 用于根据所述搜索请求搜索得到目标字幕 ; 匹配模块, 用于将所述目标字幕与所述视频源进行匹配 ; 片源聚类模块, 用于接收上报的将目标字幕与视频源进行关联生成的关联结果, 并将 其存入聚类数据库。 8. 根据权利要求 7 所述的视频源聚类的实现系统, 其特征在于, 还包括 : 元数据获取模块, 用于在匹配成功时, 获取所述视频源的元数据及目标字幕的元数 据 ; 关联上报模块, 用于将所述视频源的元数据与所述目标字幕的元数据进行关联, 生成 关联结果, 并上报所述关联结果。 9. 根据权利要求 8 所述的视频源聚类的实现系统, 其特征在于, 所述元数据包。

7、括指纹 和时长, 所述片源聚类模块包括 : 判断单元, 用于判断目标字幕的时长与所述视频源的时长差值绝对值是否小于预设误 差阈值 ; 关系建立单元, 用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值小 权 利 要 求 书 CN 103309865 A 2 2/2 页 3 于预设误差阈值时, 建立目标字幕的指纹与视频源指纹之间的映射关系, 并将所述映射关 系存入所述聚类数据库 ; 丢弃单元, 用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值不小于 预设误差阈值时, 丢弃所述关联结果。 10. 根据权利要求 9 所述的视频源聚类的实现系统, 其特征在于, 还包括 : 统计模块,。

8、 用于统计同一关联结果的上报次数 ; 所述关系建立单元还用于建立目标字幕的指纹与视频源指纹和上报次数之间的映射 关系, 并存储所述映射关系。 11. 根据权利要求 9 所述的视频源聚类的实现系统, 其特征在于, 所述关联上报模块还 用于将目标字幕的指纹和时长、 视频源的指纹和时长拼接在一起。 12. 根据权利要求 8 所述的视频源聚类的实现系统, 其特征在于, 所述匹配模块还用于 在播放所述视频源及目标字幕时, 判断所述视频源播放时长是否大于预设播放时长阈值, 若所述视频源播放时长大于所述预设播放时长阈值, 则为匹配成功。 权 利 要 求 书 CN 103309865 A 3 1/6 页 4 。

9、视频源聚类的实现方法及实现系统 【技术领域】 0001 本发明涉及多媒体技术, 特别涉及一种视频源聚类的实现方法及实现系统。 【背景技术】 0002 随着多媒体和互联网技术的高速发展, 互联网用户对多媒体内容尤其是视频源的 需求日益增长。同一部影视作品会以不同的质量参数 ( 如不同的音视频编码格式、 不同的 码率、 不同的分辨率 ) 分布于网络中的各个存储服务器上。 0003 面对海量的视频, 将相同内容的视频源进行聚类, 可为用户带来更好的应用体验。 例如, 可针对终端性能匹配内容相同但分辨率不同的视频源, 以保证终端能够流畅播放, 以 及在线播放服务能力不足时可切换到内容相同的其他格式进行。

10、播放。 0004 传统的对视频源进行聚类的方法主要是依靠视频源文件名称中的关键字信息加 上人工审核的方式来判断两部视频源是否具备相同的内容, 该方法需要耗费大量的时间且 需投入大量的人力, 成本较高且效率较低。 【发明内容】 0005 基于此, 有必要提供一种能降低成本且提高效率的视频源聚类的实现方法。 0006 一种视频源聚类的实现方法, 包括以下步骤 : 0007 获取对视频源的字幕的搜索请求 ; 0008 根据所述搜索请求搜索得到目标字幕 ; 0009 将所述目标字幕与所述视频源进行匹配 ; 0010 接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。 0011 优选的, 在将所。

11、述目标字幕与所述视频源进行匹配的步骤之后, 还包括步骤 : 若匹 配成功, 则获取所述视频源的元数据及目标字幕的元数据, 并将所述视频源的元数据与所 述目标字幕的元数据进行关联, 生成关联结果, 并上报所述关联结果。 0012 优选的, 所述元数据包括指纹和时长, 所述方法还包括步骤 : 判断目标字幕的时长 与所述视频源的时长差值绝对值是否小于预设误差阈值, 若是, 则建立目标字幕的指纹与 视频源指纹之间的映射关系, 并存储所述映射关系, 若否, 则丢弃所述关联结果。 0013 优选的, 还包括步骤 : 统计同一关联结果的上报次数 ; 建立目标字幕的指纹与视 频源指纹和上报次数之间的映射关系,。

12、 并存储所述映射关系。 0014 优选的, 所述将所述视频源的元数据与所述目标字幕的元数据进行关联的步骤包 括 : 将目标字幕的指纹和时长、 视频源的指纹和时长拼接在一起。 0015 优选的, 所述将所述目标字幕与所述视频源进行匹配的步骤包括 : 在播放所述视 频源及目标字幕时, 判断所述视频源播放时长是否大于预设播放时长阈值, 若所述视频源 播放时长大于所述预设播放时长阈值, 则为匹配成功。 0016 此外, 还有必要提供一种能降低成本且提高工作效率的视频源聚类的实现方法。 0017 一种视频源聚类的实现系统, 包括 : 说 明 书 CN 103309865 A 4 2/6 页 5 0018。

13、 请求获取模块, 用于获取对视频源的字幕的搜索请求 ; 0019 搜索模块, 用于根据所述搜索请求搜索得到目标字幕 ; 0020 匹配模块, 用于将所述目标字幕与所述视频源进行匹配 ; 0021 片源聚类模块, 用于接收上报的将目标字幕与视频源进行关联生成的关联结果, 并将其存入聚类数据库。 0022 优选的, 还包括 : 0023 元数据获取模块, 用于在匹配成功时, 获取所述视频源的元数据及目标字幕的元 数据 ; 0024 关联上报模块, 用于将所述视频源的元数据与所述目标字幕的元数据进行关联, 生成关联结果, 并上报所述关联结果。 0025 优选的, 所述元数据包括指纹和时长, 所述片源。

14、聚类模块包括 : 0026 判断单元, 用于判断目标字幕的时长与所述视频源的时长差值绝对值是否小于预 设误差阈值 ; 0027 关系建立单元, 用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对 值小于预设误差阈值时, 建立目标字幕的指纹与视频源指纹之间的映射关系, 并将所述映 射关系存入所述聚类数据库 ; 0028 丢弃单元, 用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值不 小于预设误差阈值时, 丢弃所述关联结果。 0029 优选的, 还包括 : 0030 统计模块, 用于统计同一关联结果的上报次数 ; 0031 所述关系建立单元还用于建立目标字幕的指纹与视频源指纹和上报。

15、次数之间的 映射关系, 并存储所述映射关系。 0032 优选的, 所述关联上报模块还用于将目标字幕的指纹和时长、 视频源的指纹和时 长拼接在一起。 0033 优选的, 所述匹配模块还用于在播放所述视频源及目标字幕时, 判断所述视频源 播放时长是否大于预设播放时长阈值, 若所述视频源播放时长大于所述预设播放时长阈 值, 则为匹配成功。 0034 上述视频源聚类的实现方法及实现系统, 采用将获取的目标字幕与视频源匹配 后, 接收并存储上报的将目标字幕与视频源进行关联生成的关联结果, 可将相同内容的视 频源聚类在一起, 如此仅需利用用户观看视频源下载字幕的主动行为, 不需额外的人工干 预, 减少了人。

16、员的投入, 降低了人力成本, 且提高了效率。 【附图说明】 0035 图 1 为一个实施例中视频源聚类的实现方法的流程图 ; 0036 图 2 为另一个实施例中视频源聚类的实现方法的流程图 ; 0037 图 3 为一个实施例中视频源聚类的实现系统的结构示意图 ; 0038 图 4 为图 3 中片源聚类模块的内部结构示意图 ; 0039 图 5 为另一个实施例中视频源聚类的实现系统的结构示意图。 说 明 书 CN 103309865 A 5 3/6 页 6 【具体实施方式】 0040 下面结合具体的实施例及附图对技术方案进行详细的描述。 0041 如图 1 所示, 在一个实施例中, 一种视频源聚。

17、类的实现方法, 包括以下步骤 : 0042 步骤 S110, 获取对视频源的字幕的搜索请求。 0043 本实施例中, 客户端获取用户观看本地视频源时, 通过键盘、 触摸屏等输入设备输 入的影片名称的关键字, 根据该关键字发起的搜索外挂字幕的搜索请求, 并向服务端发起 搜索请求。其中, 影片名称为视频源中内容的名称。 0044 步骤 S120, 根据搜索请求搜索得到目标字幕。 0045 本实施例中, 服务端接收到搜索请求后, 从字幕数据库中查找与所述关键字相关 的候选字幕, 并将相关性最高的至少一组候选字幕及其元数据返回给客户端, 客户端获取 用户从候选字幕选取的字幕作为目标字幕。 服务端也可将。

18、得到的相关性最高的一组候选字 幕作为目标字幕, 将目标字幕及其元数据返回给客户端。其中, 元数据包括指纹和时长, 还 可包括语言种类等。字幕的指纹可为字幕的分段哈希值或全段哈希值, 其用来唯一标识字 幕。其中, 字幕数据库可通过订制的字幕爬虫建立, 也可通过人工整理录入建立, 或两种方 式有效组合。 0046 相关性可采用用户输入的影片名称的关键字和字幕的文件名的编辑距离计算得 到。 例如, 影片名称的关键字为test, 字幕的文件名为test, 则两者的编辑距离为0, 若字幕 的文件名为 tent, 则两者的编辑距离为 1。 0047 步骤 S130, 将目标字幕与视频源进行匹配。 0048。

19、 本实施例中, 获取用户从搜索得到的相关性最高的候选字幕中选取目标字幕。然 后, 将目标字幕与视频源进行匹配。 0049 进一步的, 在一个实施例中, 步骤 S130 包括 : 在播放视频源及目标字幕时, 判断视 频源播放时长是否大于预设播放时长阈值, 若视频源播放时长大于所述预设播放阈值, 则 为匹配成功。 播放视频源及目标字幕, 客户端检测到该播放时长大于预设播放时长阈值, 则 表示匹配成功。 其中, 预设的播放时长阈值可为视频源总播放时长的百分比, 如视频源总播 放时长的 5的时间。 0050 进一步的, 在一个实施例中, 在步骤 S130 之后, 还包括步骤 : 若匹配成功, 则可获 。

20、取视频源的元数据和目标字幕的元数据, 并将两者进行关联, 生成关联结果, 并上报关联结 果, 若匹配不成功, 则丢弃该目标字幕, 可重新返回获取从相关的候选字幕中选取目标字幕 的步骤。 0051 本实施例中, 元数据包括指纹和时长。视频源的指纹和目标字幕的指纹可通过计 算其相应的哈希值得到。 0052 进一步的, 在一个实施例中, 将视频源的元数据与目标字幕的元数据进行关联的 步骤包括 : 将目标字幕的指纹和时长、 视频源的指纹和时长拼接在一起。 0053 步骤 S140, 接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。 0054 本实施例中, 服务端接收到该关联结果后, 并存储该。

21、关联结果, 以便后续根据字幕 查找到相同内容的视频源。 0055 在一个实施例中, 如图2所示, 上述视频源聚类的实现方法, 步骤S110至步骤S130 与图 1 中相同, 其区别在于, 在步骤 S130 之后, 还包括 : 说 明 书 CN 103309865 A 6 4/6 页 7 0056 步骤 S141, 若匹配成功, 获取视频源的元数据及目标字幕的元数据, 并将视频源的 元数据与所述目标字幕的元数据进行关联, 生成关联结果, 并上报所述关联结果。 0057 步骤 S150, 接收关联结果。 0058 步骤 S160, 判断目标字幕的时长与视频源的时长差值绝对值是否小于预设误差阈 值,。

22、 若是, 执行步骤 S170, 若否, 则执行步骤 S180。 0059 本实施例中, 预设误差阈值是指允许视频源的时长与字幕的时长之间存在一定的 误差, 但不影响其观看效果。当目标字幕的时长与视频源的时长差值绝对值小于误差阈值 时, 建立两者指纹之间的映射关系, 并将该映射关系存储到聚类数据库中 ; 当目标字幕的时 长与视频源的时长差值绝对值不小于误差阈值时, 则丢弃该关联结果, 即不需记录目标字 幕的元数据与视频源的元数据之间的关联。 0060 步骤 S170, 建立目标字幕的指纹与视频源指纹之间的映射关系, 并存储该映射关 系。 0061 在一个实施例中, 在步骤 S170 之前, 还包。

23、括步骤 : 统计同一关联结果的上报次数。 具体的, 不同的用户可能选择了相同的视频源及相同的字幕, 客户端将其进行关联, 然后将 关联结果上报到服务端, 服务端统计该关联结果的上报次数。例如, 客户端 A 上报视频源 a 和字幕 b 的关联结果, 客户端 B 也上报视频源 a 和字幕 b, 则上报次数为 2。 0062 在统计同一关联结果的上报次数后, 还包括步骤 : 建立目标字幕的指纹与视频源 的指纹、 上报次数之间的映射关系, 并存储该映射关系。统计了上报次数, 并建立目标字幕 的指纹与视频源的指纹和上报次数之间的映射关系, 如此, 上报次数越多, 该目标字幕与视 频源的匹配度越高, 提高。

24、了对视频源聚类的准确性。 0063 步骤 S180, 丢弃该关联结果。 0064 如图 3 所示, 在一个实施例中, 一种视频源聚类的实现系统, 包括请求获取模块 110、 搜索模块 120、 匹配模块 130 和片源聚类模块 140。其中 : 0065 请求获取模块 110, 用于获取视频源的字幕的搜索请求。 0066 本实施例中, 客户端获取用户观看本地视频源时, 通过键盘、 触摸屏等输入设备输 入的影片名称的关键字, 根据该关键字发起的搜索外挂字幕的搜索请求, 并向服务端发起 搜索请求。其中, 影片名称为视频源中内容的名称。其中, 字幕数据库可通过订制的字幕爬 虫建立, 也可通过人工整理。

25、录入建立, 或两种方式有效组合。 0067 搜索模块 120, 用于根据该搜索请求搜索得到目标字幕。 0068 本实施例中, 服务端接收到搜索请求后, 从字幕数据库中查找与所述关键字相关 的候选字幕, 并将相关性最高的至少一组候选字幕及其元数据返回给客户端, 客户端获取 用户从候选字幕选取的字幕作为目标字幕。 服务端也可将得到的相关性最高的一组候选字 幕作为目标字幕, 将目标字幕及其元数据返回给客户端。其中, 元数据包括指纹和时长, 还 可包括语言种类等。字幕的指纹可为字幕的分段哈希值或全段哈希值, 其用来唯一标识字 幕。 0069 相关性可采用用户输入的影片名称的关键字和字幕的文件名的编辑距。

26、离计算得 到。 例如, 影片名称的关键字为test, 字幕的文件名为test, 则两者的编辑距离为0, 若字幕 的文件名为 tent, 则两者的编辑距离为 1。 0070 匹配模块 130, 用于将目标字幕与视频源进行匹配。 说 明 书 CN 103309865 A 7 5/6 页 8 0071 在一个实施例中, 匹配模块 130 还用于在播放视频源及目标字幕时, 判断视频源 播放时长是否大于预设播放时长阈值, 若视频源播放时长大于所述预设播放阈值, 则为匹 配成功。 播放视频源及目标字幕, 客户端检测到该播放时长大于预设播放时长阈值, 则表示 匹配成功。 其中, 预设的播放时长阈值可为视频源。

27、总播放时长的百分比, 如视频源总播放时 长的 5的时间。若匹配成功, 则可获取视频源的元数据和目标字幕的元数据, 并将两者进 行关联, 生成关联结果, 并上报关联结果, 若匹配不成功, 则丢弃该目标字幕, 可重新获取从 相关的候选字幕中选取目标字幕。 0072 片源聚类模块 140, 用于接收上报的将目标字幕与视频源进行关联生成的关联结 果, 并将其存入聚类数据库。 0073 本实施例中, 片源聚类模块 140 接收到该关联结果后, 并存储该关联结果, 以便后 续根据字幕查找到相同内容的视频源。 0074 如图 5 所示, 在一个实施例中, 上述视频源聚类的实现系统, 除了包括请求获取模 块 。

28、110、 搜索模块 120、 匹配模块 130 和片源聚类模块 140, 还包括元数据获取模块 150、 关联 上报模块 160 和统计模块 170。 0075 元数据获取模块 150, 用于在匹配成功时, 获取视频源的元数据及目标字幕的元数 据。 0076 本实施例中, 元数据包括指纹和时长。视频源的指纹和目标字幕的指纹可通过计 算其相应的哈希值得到。元数据获取模块 150 可包括视频源指纹计算模块和字幕指纹计算 模块。视频源指纹计算模块用于计算视频源的指纹, 字幕指纹计算模块用于计算字幕的指 纹。 0077 关联上报模块 160, 用于将视频源的元数据与目标字幕的元数据进行关联, 生成关 。

29、联结果, 并上报该关联结果。在一个实施例中, 关联上报模块 160 还用于将目标字幕的指纹 和时长、 视频源的指纹和时长拼接在一起。 0078 片源聚类模块 140 还用于接收该关联结果, 并将其存入聚类数据库。 0079 元数据包括指纹和时长。在一个实施例中, 如图 4 所示, 片源聚类模块 140 包括判 断单元 141、 关系建立单元 143 和丢弃单元 145。其中 : 0080 判断单元 141, 用于判断目标字幕的时长与视频源的时长差值绝对值是否小于预 设误差阈值。本实施例中, 预设误差阈值是指允许视频源的时长与字幕的时长之间存在一 定的误差, 但不影响其观看效果。 0081 当目。

30、标字幕的时长与视频源的时长差值绝对值小于误差阈值时, 关系建立单元 143 建立两者指纹之间的映射关系, 并将该映射关系存储到聚类数据库中 ; 当目标字幕的 时长与视频源的时长差值绝对值不小于误差阈值时, 则丢弃单元 145 丢弃该关联结果, 即 不需记录目标字幕的元数据与视频源的元数据之间的关联。 0082 统计模块 170, 用于统计同一关联结果的上报次数。具体的, 不同的用户可能选择 了相同的视频源及相同的字幕, 关联上报模块 160 将其进行关联, 然后将关联结果上报到 服务端, 统计模块 170 统计该关联结果的上报次数。例如, 客户端 A 上报视频源 a 和字幕 b 的关联结果, 。

31、客户端 B 也上报视频源 a 和字幕 b, 则上报次数为 2。 0083 关系建立单元 143 还用于建立目标字幕的指纹与视频源指纹和上报次数之间的 映射关系, 并存储所述映射关系。 说 明 书 CN 103309865 A 8 6/6 页 9 0084 统计了上报次数, 并建立目标字幕的指纹与视频源的指纹和上报次数之间的映射 关系, 如此, 上报次数越多, 该目标字幕与视频源的匹配度越高, 提高了对视频源聚类的准 确性。 0085 此外, 请求获取模块 110、 匹配模块 130、 元数据获取模块 150 和关联上报模块 160 可设在客户端上, 搜索模块120、 片源聚类模块140、 统计。

32、模块170和聚类数据库可设在服务 端上。 0086 上述视频源聚类的实现方法及实现系统, 采用将获取的目标字幕与视频源匹配 后, 接收并存储上报的将目标字幕与视频源进行关联生成的关联结果, 可将相同内容的视 频源聚类在一起, 如此仅需利用用户观看视频源下载字幕的主动行为, 不需额外的人工干 预, 减少了人员的投入, 降低了人力成本, 且提高了效率。 0087 另外, 将相同内容的视频源聚类在一起后, 方便根据不同的终端设备的计算性能 提供不同质量参数的视频源来保证终端设备的播放流畅, 以及在线点播服务能力不足时能 切换到内容相同的其他格式的视频源进行播放来保证播放流畅。 0088 此外, 通过。

33、判断目标字幕的时长与视频源时长的差值绝对值是否小于预设误差阈 值, 过滤一部分关联结果, 提高了聚类的准确性 ; 通过统计上报次数, 建立目标字幕的指纹 与视频源的指纹和上报次数的映射关系, 上报次数越高, 其目标字幕与视频源的匹配度越 高, 聚类的准确性越高 ; 通过判断播放时长是否大于预设播放时长阈值, 判断目标字幕与视 频源的匹配度, 操作方便。 0089 以上所述实施例仅表达了本发明的几种实施方式, 其描述较为具体和详细, 但并 不能因此而理解为对本发明专利范围的限制。应当指出的是, 对于本领域的普通技术人员 来说, 在不脱离本发明构思的前提下, 还可以做出若干变形和改进, 这些都属于本发明的保 护范围。因此, 本发明专利的保护范围应以所附权利要求为准。 说 明 书 CN 103309865 A 9 1/3 页 10 图 1 说 明 书 附 图 CN 103309865 A 10 2/3 页 11 图 2 说 明 书 附 图 CN 103309865 A 11 3/3 页 12 图 3 图 4 图 5 说 明 书 附 图 CN 103309865 A 12 。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 物理 > 计算;推算;计数


copyright@ 2017-2020 zhuanlichaxun.net网站版权所有
经营许可证编号:粤ICP备2021068784号-1