浙江大学刘勇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉浙江大学申请的专利一种基于自监督单目深度估计的稠密重建方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116228833B 。
龙图腾网通过国家知识产权局官网在2026-01-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211603688.3,技术领域涉及:G06T7/55;该发明授权一种基于自监督单目深度估计的稠密重建方法是由刘勇;刘青瑶设计研发完成,并于2022-12-13向国家知识产权局提交的专利申请。
本一种基于自监督单目深度估计的稠密重建方法在说明书摘要公布了:本发明涉及计算机视觉技术领域,公开了一种基于自监督单目深度估计的稠密重建方法,本发明现有基于自监督的方法大都没有考虑尺度的问题,输出的深度估计结果在帧间存在尺度不一致的问题。本发明针对此问题进行了设计,以实现尺度一致的深度估计方法,本发明创新性地提出了一种建图框架,可以在只有一个RGB相机输入的情况下获得当前的实时稠密重建结果,以及全局的点云地图。以往的技术中没有将深度估计的方法用于实时的稠密重建以及建立全局的点云地图中。
本发明授权一种基于自监督单目深度估计的稠密重建方法在权利要求书中公布了:1.一种基于自监督单目深度估计的稠密重建方法,其特征在于,包括以下步骤: S1、准备RGB图像和深度数据,且RGB图像与深度数据一一对应; S2、将所述RGB图像输入深度估计网络进行训练并计算损失函数; S3、网络优化,对步骤S2计算得到的损失加和后利用反向传播对网络优化,直至在测试数据集上的误差不再下降; S4、将所述RGB图像输入到步骤S3优化后的模型中输出当前帧的深度图; S5、将所述RGB图像和所述深度图输入到SLAM系统中输出六自由度的优化位姿; S6、将所述RGB图像和所述深度图通过点云投影公式转换为相机坐标系下的点云; S7、将所述六自由度的优化位姿经过坐标变换公式到世界坐标系下,并将每一帧的点云相加,得到全局一致的点云地图; 所述步骤S2中计算损失函数的具体步骤为: S28、利用步骤S27中得到的深度D计算光度误差损失函数和边缘平滑正则损失函数; S29、计算光度误差损失函数:在利用逆向翘曲变换得到重建图像以后,通过计算重建的图像I和目标图像It之间的相似性来衡量网络估计的视觉量的准确性: 其中α是通过交叉验证法得到的超参数,设置为0.85,SSIM是结构相似度衡量指标计算算法,计算公式为 S210、计算边缘平滑正则损失函数:单纯使用光度误差损失函数会在一些特殊区域产生歧义,例如无纹理区域或者拥有重复纹理的区域,这些区域都会出现大量的重复像素和重复特征,因此,为了减少这些区域对最终结果带来的影响,无监督深度估计中引入了边缘平滑正则损失函数: 其中是分别在x,y方向上的偏微分,dt是目标帧的深度,改正则项使得图像梯度不明显时,预测深度值应该在x和y方向上尽量一致; S211、计算最小化前后帧损失:在无监督单目深度估计中,会出现同一个物体在不同帧中被遮挡的问题,如果一旦发生遮挡会错误匹配像素,带来较高的光度误差,因此需要用多帧优化深度估计网络,假设使用连续三帧图像优化框架,设目标帧为中间时刻图像,参考帧为该图像的前后帧Is,s∈{t-1,t+1},最小化光度误差来解决遮挡问题,其中表示分别从{It-1,It+1}中重建得到的图像, S212、计算自动掩膜,自动掩膜计算公式为: S213、计算尺度一致的损失函数:通过最小化目标帧深度和投影帧深度的几何损失来明确地执行尺度一致性,首先得到目标帧的深度图Dt,并通过反翘曲方法将它们投影到目标坐标上,接下来,使用深度网络来估计投影图像It′的深度Dt′,并利用步骤S212中的自动掩膜M,尺度一致性损失计算公式为: Lsc=Mlog1+|Dt,-Dt|; S214、计算无监督单目深度估计优化的总损失函数:
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江大学,其通讯地址为:310000 浙江省杭州市西湖区余杭塘路866号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励