首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于分类的内容自适应VVC帧内编码快速划分方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:上海大学

摘要:本发明提供一种基于分类的内容自适应VCC帧内编码快速划分方法,包括:将待压缩视频分成若干个不同场景;对于每个不同的场景,所述场景内首帧用于模型的训练,场景内其他帧用训练好的模型进行预测;通过预测,将不能执行的划分方式移出候选模式队列;本发明结合支持向量机与场景切换检测算法,实现了在线训练、预测的分类算法,提供了稳定的加速性能和低码率损失,对训练样本的需求极小。

主权项:1.一种基于分类的内容自适应VVC帧内编码快速划分方法,其特征在于,包括:将待压缩视频进行场景切换检测,分类成若干个不同场景;对于每个所述的不同的场景,使用同一个基于支持向量机的模型;每个场景内首帧用于所述模型的训练;场景内其他帧用训练好的模型进行预测划分;通过所述预测划分,将不能执行的划分方式移出候选模式队列;所述将待压缩视频分成若干个不同场景,包括:对于所有I帧图像按照显示顺序建立一个I帧图像队列L,对其中的每幅图像Ii与其前一幅相邻图像Ii-1进行场景切换检测,获得不同场景;检测到当前帧与前一相邻帧发生了场景切换时,将当前帧设置为训练帧,否则当前帧为预测帧;其中,所述场景切换检测,包括:将Ii帧图像与Ii-1帧图像分别划分成32x32的小块,第i帧图第k个块的平均灰度值表示为Bi,k,图像内32x32块总数量为N;计算Bi,k与Bi-1,k的差值的绝对值并记为Ei,k,比较完所有块;比较第i帧内全部Ei,k与设定的阈值Thr的大小,若Ei,k≥Thr,则场景切换计数Cntsc加一,若Cntsc≥0.6N,则第i帧被视为发生了场景切换,其中,CntSC初始值为0,下一帧进行检测时重新开始计数;所述对于每个不同的场景,所述场景内首帧用于模型的训练,场景内其他帧用训练好的模型进行预测;通过预测,将不可能的划分方式移出候选模式队列,包括:对当前帧以块为单位进行编码决策,提取特征向量;所述当前帧为训练帧,额外提取块划分信息,将所述特征向量和所述块划分信息存入训练数据集,以进行模型训练,获得支撑向量机分类器;所述当前帧为预测帧,将所述特征向量输入到训练好的支持向量机分类器进行预测;根据所述预测结果判断是否将划分方式移出候选划分模式队列;所述对当前帧以块为单位进行编码决策,提取特征向量,包括:判断当前图像块是否为32x32,若非,则按编码器原始决策算法进行决策;若是,判断当前帧是否为训练帧:若当前帧为训练帧:提取出当前块的梯度特征G、信息熵特征E和邻域深度差D,组成1x3特征向量F;获取当前块按照编码器原始决策算法决策出的最佳划分方式Sbest并推导出划分标志Ybth、Ybtv、Ytth、Yttv、Yqt,分别表示是否为水平二叉树划分、垂直二叉树划分、水平三叉树划分、垂直三叉树划分、四叉树划分;若当前帧为预测帧:提取出当前块的梯度特征G、信息熵特征E和邻域深度差D,构成特征向量F;所述当前帧为训练帧,将特征向量和块划分信息存入训练数据集,以进行模型训练,获得支撑向量分类器,包括:将当前块对应的特征向量F分别与五个不同的划分标志组合构造成训练样本,存入五个不同的训练数据集;对当前帧的所有32x32的块,重复上述操作,更新所述五个训练数据集;对于所述五个训练数据集中的每个样本进行归一化;利用所述五个归一化后的训练数据集训练出五个不同的支持向量机分类器Cbth、Cbtv、Ctth、Cttv、Cqt;所述支持向量机分类器用于此训练帧之后、下一个训练帧之前的所有预测帧;所述当前帧为预测帧,将特征向量输入到训练好的支撑向量机分类器进行预测;根据所述预测结果判断是否将划分方式移除候选划分模式队列,包括:将所述特征向量的输入特征G、E、D根据训练时得到的Gmax、Emax、Dmax、Gmin、Emin、Dmin进行限幅;输入特征G、E、D组合得到特征向量F,并输入训练好的对应的支持向量机分类器;通过5个不同的支持向量机分类器预测得到5个新的划分标志Y'bth,Y'btv,Y'tth,Y'ttv,Y'qt,其分别表示经过预测后当前32x32的块能否再进行对应的划分BTH,BTV,TTH,TTV,QT;若所述BTH,BTV,TTH,TTV,QT的某种方式不能执行,则将该种划分方式移出候选划分模式队列。

全文数据:

权利要求:

百度查询: 上海大学 一种基于分类的内容自适应VVC帧内编码快速划分方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。