首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于特征感知和多通道学习的图像色差检测方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:华南理工大学

摘要:本发明公开了一种基于特征感知和多通道学习的图像色差检测方法,包括:1构建用于训练色差检测网络的训练集,色差检测网络由多通道学习模块、特征感知模块、区域建议网络和预测回归网络组成;2将图像输入多通道学习模块,获取图像全面特征图;3将图像全面特征图输入特征感知模块,得到感知加权特征图;4将感知加权特征图输入区域建议网络,得到区块特征图;5将区块特征图输入预测回归网络,得到色差偏移量及位置,与真实值计算损失,反向传播调整参数;6迭代训练至预设值,确定色差检测网络;7将待检测图像输入色差检测网络,获取色差偏移量及位置。本发明可实现对具有复杂纹理及图案的图像高速高精度色差检测。

主权项:1.基于特征感知和多通道学习的图像色差检测方法,其特征在于,包括以下步骤:1采集具有复杂纹理及图案的图像,对图像中的色差异常标注色差偏移量及位置,构建用于训练色差检测网络的训练集;其中,所述色差检测网络由多通道学习模块、特征感知模块、区域建议网络和预测回归网络组成;2将训练集中的图像输入色差检测网络进行训练,具体过程如下:2.1图像输入多通道学习模块,获取图像全面特征图;2.2将图像全面特征图输入特征感知模块,获得感知加权后的特征图:对不同通道的特征图加权求和: 将不同通道的特征图两两拼接再加权求和: 将上述两步求和得到的特征图C0[x,y]和C1[x,y]拼接,并通过k层卷积,得到感知加权后的特征图: 以上三个公式中,fi[x,y]和fj[x,y]分别表示对应i通道和j通道的特征图,R,G,B为像素点RGB三个通道的值,H,S,V和Y,U,V'分别为转换得到的HSV格式和YUV’格式的对应通道值,δi和δij为对应不同通道的感知权重,为第1层到第k层的卷积核,*为卷积运算,·为乘法运算,C[x,y]为感知加权后的特征图;2.3将感知加权后的特征图输入区域建议网络,得到被网络判断存在色差异常的区块特征图:{m1[x,y],……,mn[x,y]}=RPNC[x,y]式中,C[x,y]为感知加权后的特征图,RPN为区域建议网络,m1[x,y],......,mn[x,y]为n个存在色差异常概率高的区块特征图;2.4将区块特征图输入预测回归网络,得到色差异常位置及色差偏移量,与真实的色差异常位置及色差偏移量做运算,计算损失,通过损失函数反向传播,调整多通道学习模块、特征感知模块及预测回归网络的参数;包括以下步骤:2.4.1将区块特征图输入预测回归网络,得到色差异常位置及色差偏移量;色差偏移量预测:zr=Hmr[x,y]式中,mr[x,y]为存在色差异常概率高的区块特征图,H是预测回归网络的预测部分,zr为预测得到的色差偏移量;边框预测:[xo,yo,h,w]=Gmr[x,y]式中,G为预测回归网络的回归部分,[xo,yo,h,w]为网络输出的色差异常位置,用中心坐标[xo,yo]和宽高[h,w]描述一个边框;2.4.2将预测值与真实的色差异常位置与色差偏移量做运算,计算损失,通过损失函数反向传播,调整多通道学习模块、特征感知模块及预测回归网络的参数;损失函数: Lpre=-zr·logPr+1-zr·log1-Pr 式中,Lpre表示色差偏移量预测损失,表示边框回归损失,L表示总损失,Pr表示真实色差偏移值,ti表示预测得到的位置参数向量,表示真实的位置参数向量,xo*,yo*,h*,w*为真实边框的中心坐标[xo*,yo*]和宽高[h*,w*];3返回步骤2,重新将训练集中的图像输入调整后的色差检测网络进行迭代训练,不断重复步骤2至3,直至训练次数大于预设迭代次数,将最后一次得到的网络确定为训练好的色差检测网络;4将待检测的具有复杂纹理及图案的图像输入训练好的色差检测网络,识别出超过阈值的色差异常并在图中标注色差偏移量及位置,完成对具有复杂纹理及图案的图像的色差检测。

全文数据:

权利要求:

百度查询: 华南理工大学 基于特征感知和多通道学习的图像色差检测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。