厦门大学喻骁获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉厦门大学申请的专利基于运动物体掩膜的单目自监督深度估计方法、电子设备和存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119359780B 。
龙图腾网通过国家知识产权局官网在2025-11-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411189121.5,技术领域涉及:G06T7/579;该发明授权基于运动物体掩膜的单目自监督深度估计方法、电子设备和存储介质是由喻骁;钟积权;纪荣嵘设计研发完成,并于2024-08-28向国家知识产权局提交的专利申请。
本基于运动物体掩膜的单目自监督深度估计方法、电子设备和存储介质在说明书摘要公布了:本发明公开一种基于运动物体掩膜的单目自监督深度估计方法,能够大幅提升单目深度估计在动态场景的准确性并规避基于物体运动补偿的图像重建带来的不适定性问题,包括:1、给定目标帧图像、相邻帧图像,计算相邻帧位姿估计、单帧深度估计、目标帧特征图、相邻帧特征图;2、重建目标帧特征图并构建时序特征;3、计算原始图像分辨率的多帧深度估计;4、基于多帧深度估计与单帧深度估计构建运动物体掩膜;使用运动物体掩膜训练单帧深度估计;通过原始的目标帧重建损失训练多帧深度估计;5、通过掩膜后的基于单帧深度估计的重建损失、基于多帧深度估计的重建损失实现深度估计网络与相机位姿估计网络的联合训练。
本发明授权基于运动物体掩膜的单目自监督深度估计方法、电子设备和存储介质在权利要求书中公布了:1.一种基于运动物体掩膜的单目自监督深度估计方法,其特征在于包括以下步骤: 步骤1、给定目标帧图像、相邻帧图像,通过相机位姿网络得到相邻帧位姿估计,以UNet型卷积网络作为深度估计网络得到目标帧图像对应的单帧深度估计;使用深度估计网络的前两个卷积层分别对目标帧图像、相邻帧图像提取纹理特征,得到目标帧特征图、相邻帧特征图; 步骤2、基于单帧深度估计、相邻帧位姿估计进行目标帧特征图重建,其计算公式为: ; 其中,表示重建后的目标帧特征图,表示使用第个假想深度平面进行重建;表示双线性插值方法;表示基于深度估计以及相机位姿的重建映射;表示相机内参矩阵;表示基于单帧深度估计的假想深度平面,其计算公式为: ; 其中,表示重建的目标帧特征图的数量,; 基于得到的个重建的目标帧特征图构建时序特征,其计算公式为: ; 其中,表示通道上的范数;表示在通道维度上拼接; 步骤3、结合单帧深度估计的特征图,使用平移窗口变换器、卷积层和Sigmoid激活函数得到14原始图像分辨率的多帧深度估计;将单帧深度估计的特征图通过卷积层得到凸上采样权重,对14原始图像分辨率的多帧深度估计进行凸上采样,得到原始图像分辨率的多帧深度估计; 步骤4、基于多帧深度估计与单帧深度估计构建运动物体掩膜,其计算公式为: ; 其中,表示将运动物体掩膜的值截断至之间;运动物体掩膜是值在之间的软掩膜,值越接近其对应区域越可能是运动物体; 使用运动物体掩膜减小运动物体区域目标帧重建损失的权重,以训练单帧深度估计,其计算公式为: 其中,表示基于单帧深度估计的重建损失;表示基于单帧深度估计和相邻帧位姿估计的目标帧图像重建结果,其计算公式为;表示图像的光度误差;表示图像的结构相似性; 通过原始的目标帧重建损失训练多帧深度估计,其计算公式为: ; 其中,表示基于多帧深度估计的重建损失;表示基于多帧深度估计和相邻帧位姿估计的目标帧图像重建结果; 步骤5、通过掩膜后的基于单帧深度估计的重建损失、基于多帧深度估计的重建损失实现深度估计网络与相机位姿估计网络的联合训练,其计算公式为: ,表示最终用于训练的重建损失。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人厦门大学,其通讯地址为:361000 福建省厦门市思明南路422号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励