北京工业大学尹宝才获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京工业大学申请的专利基于无监督域适应的事件相机深度估计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119579666B 。
龙图腾网通过国家知识产权局官网在2025-11-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411611882.5,技术领域涉及:G06T7/50;该发明授权基于无监督域适应的事件相机深度估计方法是由尹宝才;杨建业;王少帆;孙艳丰设计研发完成,并于2024-11-13向国家知识产权局提交的专利申请。
本基于无监督域适应的事件相机深度估计方法在说明书摘要公布了:本发明公开了基于无监督域适应的事件相机深度估计方法,适用于计算机视觉领域中的事件相机深度估计技术领域。该方法通过对图像域和事件域之间存在的区别进行全面分析,通过改变图像风格来加强这两种模式之间的联系。这种方法可以使隐式空间中的特征更容易对齐,并缩小显式空间中的差距。在有标记的图像领域进行训练,然后将知识转移到无标记的事件数据中;利用跨域特征对齐和深度对齐将知识从图像转移到事件,利用外观进行风格转移,并利用边缘不变一致性将不同领域之间的差距最小化。通过无监督域适应,仅使用图像的深度标签进行事件单目深度估计。
本发明授权基于无监督域适应的事件相机深度估计方法在权利要求书中公布了:1.基于无监督域适应的事件相机深度估计方法,其特征在于: 步骤1:首先设计无监督域适应整体框架;利用风格迁移模块对图像域和事件域进行风格迁移,之后将处理过后的图像域和事件域送入各自的编码器当中生成特征,然后利用隐式显式一致性模块和边缘不变模块约束不同域的特征,之后输入到共享的解码器当中输出深度估计图进行训练; 步骤2:在测试时只使用事件域的部分,即将事件输入到事件编码器生成特征,再输入到共享的解码器当中输出深度图; 1无监督域适应整体框架:设置源域为密集图像Ii和相应深度图Di的集合,让目标域为一个M个事件的事件流,其中分别表示第j个事件的位置、极性和时间戳;在向网络输入事件数据时,利用堆叠事件帧的方法将固定个数的事件ej体素化为Ek∈RC×H×W;设计风格迁移模块、隐式显式一致性模块和边缘不变模块三个新模块来获得更好的事件域深度估计结果;在源域中为了减少域差距,首先对源图像进行样式转换,同时保留原始深度标签,得到随后,经过处理的图像被送入图像特征分支: 然后将特征fimg输入后续的图像监督学习分支,送入到共享的解码器Dshare得到深度图,即: Dimg=Dsharefimg2 然后使用深度标签对其进行训练;在目标域,将事件体素网格E送入图像重建网络,生成重建图像,即: Irecon=E2VIDE3 然后将Irecon送入图像特征分支,得到重建图像特征,即: frecon=EimgIrecon4 事件也被送入事件特征分支,得到事件特征,即: fevent=EeventE5 最后,来自不同模态的特征被输入共享深度估计头Dshare,利用隐式显式一致性模块和边缘不变模块传递图像域的深度估计知识; 2风格迁移模块; 采用事件到图像重建网络E2VID,选择图像传输网络CycleGAN,通过了解两个域之间的异同来传输风格;训练一个风格转移网络G,并使用预训练的模型G参与深度估计训练; 以下是风格转换训练步骤:首先,将事件流E输入E2VID,得到的重建图像Irecon用作源域;其次,将源图像Ii作为目标域;然后根据CycleGAN的训练过程得到的预训练模型G来进行源图像域的风格转换; 3隐式显式一致性模块; 域适应方法包括将来自不同模态的数据输入不同的编码器,并使用共享解码器进行深度估算;通过使用深度标签训练图像域中的编码器和解码器,从场景中获取细粒度信息,生成更高质量的深度图;设计隐式显式一致模块;提出了以下隐式一致性损失,以保持事件的嵌入和重建图像的嵌入的接近性: 从不同域的编码器得到两个嵌入fevent和fimage,使用L1距离确保嵌入隐式对齐: 提出显式一致性损失来对深度图进行显式对齐;即: 4边缘不变模块; 在将事件特征输入解码器生成深度图时,使用边缘损失使用边缘损失来约束深度图和图像,以帮助网络生成边缘不变的估计;即: 其中和分别代表水平和垂直方向的导数;将Dimg,Irecon视为关于x和y的函数;的每个项都会在物体边缘处保留更多细节和结构信息,而在平滑区域则会减少细节。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京工业大学,其通讯地址为:100000 北京市朝阳区平乐园100号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励