Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜北京理工大学重庆创新中心;北京理工大学许廷发获国家专利权

恭喜北京理工大学重庆创新中心;北京理工大学许廷发获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜北京理工大学重庆创新中心;北京理工大学申请的专利一种基于高斯交叉注意力网络的跨模态行人检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114359838B

龙图腾网通过国家知识产权局官网在2025-03-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210039817.4,技术领域涉及:G06V20/52;该发明授权一种基于高斯交叉注意力网络的跨模态行人检测方法是由许廷发;彭沛然;李佳男;穆峰设计研发完成,并于2022-01-14向国家知识产权局提交的专利申请。

一种基于高斯交叉注意力网络的跨模态行人检测方法在说明书摘要公布了:本发明提供一种基于高斯交叉注意力网络的跨模态行人检测方法,包括:S1,获取多源行人图像;S2,对多源行人图像进行数据预处理得到多源行人图像训练集;S3,对多源行人图像进行人工标注得到真值行人位置边界框坐标;S4,构建基于高斯交叉注意力的检测网络;S5,利用多源行人图像训练集训练基于高斯交叉注意力的检测网络,得到训练好的基于高斯交叉注意力的检测网络;S6,利用训练好的基于高斯交叉注意力的检测网络进行行人检测。本发明采用基于高斯交叉注意力的检测网络提取多源行人图像的深层显著特征并融合,直接获得表示行人位置的边界框坐标,在网络训练和实用中更为便捷灵活,节省计算资源和降低时间消耗。

本发明授权一种基于高斯交叉注意力网络的跨模态行人检测方法在权利要求书中公布了:1.一种基于高斯交叉注意力网络的跨模态行人检测方法,其特征在于,包括如下步骤:S1,获取多源行人图像;S2,对步骤S1获取的多源行人图像进行数据预处理,得到多源行人图像训练集;S3,对步骤S1获取的多源行人图像进行人工标注,得到真值行人位置边界框坐标;S4,构建基于高斯交叉注意力的检测网络;S5,利用步骤S2得到的多源行人图像训练集对步骤S4构建的基于高斯交叉注意力的检测网络进行训练,训练过程中采用损失函数计算基于高斯交叉注意力的检测网络输出的预测行人位置边界框坐标与步骤S3得到的真值行人位置边界框坐标之间的差异,并通过反向传播算法优化检测网络的参数,从而得到训练好的基于高斯交叉注意力的检测网络;S6,利用训练好的基于高斯交叉注意力的检测网络进行行人检测;步骤S4中构建的基于高斯交叉注意力的检测网络包括:特征提取网络、基于交叉注意力的特征融合网络、以及预测网络;所述特征提取网络为一系列卷积神经网络,用于从可见光行人图像和红外光行人图像中分别提取可见光特征和红外光特征;所述基于交叉注意力的特征融合网络包括自注意力机制模块、可学习高斯注意力模块和交叉注意力融合模块;所述自注意力机制模块通过一个1×1卷积层对红外特征图降维得到索引特征图Q;所述可学习高斯注意力模块通过一个1×1卷积层对可见光特征图降维并通过一个可学习高斯注意力层对可见光背景特征进行滤波得到键值特征图K;通过参数运算层计算索引特征图Q和键值特征图K的相似度并通过Softmax函数得到包含显著特征权重分布的注意力热图;所述交叉注意力融合模块使用一个1×1卷积层对可见光特征图降维得到内容特征图V,并将内容特征图V与注意力热图进行聚合后再与可见光特征图相加得到融合特征图;所述预测网络包括分别由多个卷积层、全连接层和softmax层组成的目标分类分支和边界框回归分支,用于根据融合特征图得到预测行人位置边界框坐标。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学重庆创新中心;北京理工大学,其通讯地址为:401120 重庆市渝北区龙兴镇曙光路9号9幢;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。