Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜苏州湘博智能科技有限公司李鹏获国家专利权

恭喜苏州湘博智能科技有限公司李鹏获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜苏州湘博智能科技有限公司申请的专利基于无监督深度学习的单目视觉里程计的设计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114693720B

龙图腾网通过国家知识产权局官网在2025-04-04发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210195358.9,技术领域涉及:G06T7/269;该发明授权基于无监督深度学习的单目视觉里程计的设计方法是由李鹏;蔡成林;周彦;盘宏斌;陈洋卓;窦杰;孟步敏;蔡晓雯;张莹;黄鹏;李锡敏设计研发完成,并于2022-02-28向国家知识产权局提交的专利申请。

基于无监督深度学习的单目视觉里程计的设计方法在说明书摘要公布了:本发明公开了一种基于无监督深度学习的单目视觉里程计的设计方法,通过通过联合训练深度、相对姿态和光流来提高视觉里程计的性能,使用深度网络和光流网络得到长序列一致的深度信息和密集光流信息,通过前后一致性误差进行精确的稀疏光流采样,由模型得分选择最优跟踪方式,并与深度信息对齐得到尺度一致的视觉里程计,结合传统方法的几何约束条件和深度网络的鲁棒性匹配,在多项误差评估指标中明显优于单纯的几何方法和端到端的深度学习方法,在并且通过实验证明该方法有效减少了尺度不一致和尺度漂移问题。

本发明授权基于无监督深度学习的单目视觉里程计的设计方法在权利要求书中公布了:1.一种基于无监督深度学习的单目视觉里程计的设计方法,其特征在于,包括以下步骤:步骤一:结合深度一致性和图像相似性损失函数得到尺度一致的无监督深度学习网络,并与RAFT光流网络联合训练得到更加鲁棒的光流;步骤二:根据前后一致性误差,在密集光流中进行稀疏采样,得到对应关系;步骤三:根据对应关系选择最优跟踪方式,联合深度网络进行深度对齐,从而得到尺度一致的视觉里程计;所述步骤一中,无监督深度学习网络的框架包括三个部分:深度网络、相对姿态网络和光流网络,深度网络接收单个RGB图像作为输入并输出逆深度图,相对姿态网络和光流网络均接收两帧图像作为输入,相对姿态网络输出两帧之间的六自由度相对位姿,光流网络输出两帧之间的双通道光流;所述步骤一中,在训练期间,同时估计相邻两帧图像深度,使用空间一致性约束使其深度信息一致;姿态网络和光流网络的输入为两张相邻RGB图像,联合相对位姿估计和深度估计得到合成图像,采用光度一致性损失函数和图像平滑损失函数优化深度信息和相机姿态,通过合成光流对RAFT网络进行联合优化;在缺少真实深度信息和光流信息的情况下,无监督深度学习网络利用合成视图,以帧间相似性作为监督信号来训练网络模型;深度网络和光流网络通过相对姿态网络进行几何关联,其中相对姿态网络用来帮助约束深度网络和光流网络,且只在训练期间使用;考虑两张相邻图像Ik和Ik+1,Ik表示第k张图像,通过相对姿态网络和深度网络得到相邻帧之间的相对运动Tk→k+1和单视图深度Dk,Dk+1,Dk表示第k个单视图深度,根据等式 其中,为从第k张图像像素坐标经过变换得到第k+1张图像的像素坐标;为从序列k到序列k+1的预测相机相对运动,为第k张图像像素的预测深度;p是图像像素坐标,pk是第k张图像的像素坐标,K是相机内参矩阵;将输入图像Ik进行变换得到合成图像由于图像是连续离散数值,使用可微双线性插值得到连续的像素坐标值,并由此得到一种合成光流Fsyn: 无监督训练假设帧间相同物体表面外观也相同,在简单逐像素差基础上,引入结构相似度损失以学习相邻帧之间的结构信息,使用L1和SSIM损失结合作为重建图像损失: 其中,Lp:损失函数结果;结构相似损失函数;α=0.85,SSIM使用3×3大小的窗口计算,V是相邻帧有效共视区域;在低纹理场景或均匀区域下,假设的光度不变性会导致预测空洞问题,为了得到平滑的深度预测,引入一阶边缘平滑项损失: 其中,Ls:平滑损失函数结果;表示图像视差梯度;表示图像边缘概率图梯度,下标i,j表示像素坐标;x,y表示像素方向;Ii,j:图像i,j位置像素点;分别是沿x,y方向的一阶导数;对于动态物体,联合图像分割网络进行掩码处理,根据Monodepth2,使用二进制掩码,忽略与摄像机同步运动的对象,该掩码在网络的正向传递中自动计算: 其中ω:二进制掩码;LpIk,Ik+1:正文公式3中提到的图像重建损失函数;分别表示第k张图像,第k张图像的合成图像,第k+1张图像;通过合成光流和RAFT光流网络的误差联合训练进行微调: Lf:联合微调损失函数结果;flow:图像光流场共同有效像素区域;FRp:RAFT网络光流预测结果;Fsynp:合成光流网络光流预测结果;在训练中,为了到结构一致的深度预测,通过光流网络将Dk+1与Dk对齐,计算深度一致性损失: 其中,Ldc:深度一致性损失函数结果;Dkp:第k张图像深度;通过光流网络匹配计算得到的第k张图像的深度;S是光流和深度的共同有效区域,以此得到一致的深度估计;综上所述,网络总体损失函数L为:L=Lp+λsLs+λfLf+λdcLdc8其中,λs、λf和λdc表示各项损失的权重,所有损失共同应用于深度网络和光流网络;所述步骤二具体步骤为:2-1前后光流一致性:从光流网络得到前向光流Ff和后向光流Fb并计算前后向一致性dF=Ffp+Fbp+Ffp2;2-2稀疏点采样:将图像划分为10×10网格区域,并在每个区域中取dF小于阈值δ的前20组稀疏匹配点;所述步骤三具体步骤为:3-1模型选择:计算本质矩阵和单应矩阵,然后计算模型得分RF,RF=SFSF+SH,SF、SH分别为F,R模型得分;如果RF>0.5,则选择2D-2D跟踪模式;反之,则选择3D-3D跟踪模式;3-2尺度恢复:对于2D-2D跟踪模式,从本质矩阵分解得到归一化的相机运动R表示旋转矩阵,表示位移向量,其模长为单位1;然后使用三角化方法进行尺度对齐,恢复尺度因子s,得到表示相机运动,表示尺度恢复得到的实际位移长度;对于3D-3D跟踪模式,使用ICP方式进行求解,得到Tk→k+1=[R|t],[R|t]表示相机的运动方式,t表示相机位移向量。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人苏州湘博智能科技有限公司,其通讯地址为:215500 江苏省苏州市常熟市经济技术开发区研究院路3号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。