买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:北京邮电大学;北京第二外国语学院
摘要:本发明公开了一种基于跨模态互注意力机制的图文匹配方法,该方法包括以下步骤:采用目标检测网络对图像语义特征进行提取,并采用中文预训练模型对文本语义特征进行提取;通过图文相似度计算模块对局部图像区域与文本中单词之间的cos相似度进行计算,得到注意力权重,同时对受图像注意力监督的文本向量进行计算;对受图像注意力监督的文本向量与局部图像的cos相似度进行计算,并通过求和与平均池化处理得到完整文本与完整图像之间的相似度;计算图文相似度的预测结果。本发明能够推断整个图像和完整句子之间的相似性,输出图像和句子间的相似度数值,实现图像局部到单词对齐的细粒度图文匹配。
主权项:1.一种基于跨模态互注意力机制的图文匹配方法,其特征在于,该方法包括以下步骤:S1、采用目标检测网络对图像语义特征进行提取,并采用中文预训练模型对文本语义特征进行提取;S2、构建图文相似度计算模块,并通过图文相似度计算模块对局部图像区域与文本中单词之间的cos相似度进行计算,得到注意力权重,同时对受图像注意力监督的文本向量进行计算;S3、对受图像注意力监督的文本向量与局部图像的cos相似度进行计算,并通过求和与平均池化处理得到完整文本与完整图像之间的相似度;S4、训练得到图文匹配预测模型,并将提取到的图文数据的特征编码输入图文匹配预测模型,得到图文相似度的预测结果。
全文数据:
权利要求:
百度查询: 北京邮电大学 北京第二外国语学院 一种基于跨模态互注意力机制的图文匹配方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。