恭喜湖南大学毛建旭获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜湖南大学申请的专利基于视觉状态空间模型的多机器人协同三维目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119169606B 。
龙图腾网通过国家知识产权局官网在2025-04-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411241486.8,技术领域涉及:G06V20/64;该发明授权基于视觉状态空间模型的多机器人协同三维目标检测方法是由毛建旭;贺振宇;王耀南;谢核;刘彩苹;余俊龙;陶梓铭;易俊飞;张辉;朱青;彭伟星设计研发完成,并于2024-09-05向国家知识产权局提交的专利申请。
本基于视觉状态空间模型的多机器人协同三维目标检测方法在说明书摘要公布了:本发明属于大范围制造场景机器人协同三维感知领域,具体涉及一种基于视觉状态空间模型的多机器人协同三维目标检测方法,包括:搭建多机器人激光雷达三维感知平台,采集飞机制造与装配大范围场景中的三维点云数据;对所采集的三维点云数据进行数据标注,制作三维点云检测数据集,并将三维点云检测数据集进行划分;构建基于视觉状态空间模型的点云三维目标检测模型;将训练集代入到点云三维目标检测模型中进行迭代训练,并采用验证集进行模型验证,得到最优点云三维目标检测模型;将测试集代入到最优点云三维目标检测模型中进行预测,得到三维点云检测结果,实现多机器人在大范围场景中的协同三维目标检测。
本发明授权基于视觉状态空间模型的多机器人协同三维目标检测方法在权利要求书中公布了:1.一种基于视觉状态空间模型的多机器人协同三维目标检测方法,其特征在于,包括如下步骤:搭建多机器人激光雷达三维感知平台,采集飞机制造与装配大范围场景中的三维点云数据;对所采集的三维点云数据进行数据标注,制作三维点云检测数据集,并将三维点云检测数据集划分为训练集、验证集及测试集;构建基于视觉状态空间模型的点云三维目标检测模型;所述基于视觉状态空间模型的点云三维目标检测模型包括点云编码模块、特征提取模块、特征融合模块、检测头;将训练集代入到基于视觉状态空间模型的点云三维目标检测模型中进行迭代训练,并采用验证集进行模型验证,得到基于视觉状态空间模型的最优点云三维目标检测模型;将测试集代入到基于视觉状态空间模型的最优点云三维目标检测模型中进行预测,得到三维点云检测结果,并在结果级融合多机器人的三维点云检测结果,实现多机器人在大范围场景中的协同三维目标检测;所述特征提取模块的过程具体包括如下步骤:将点云编码模块的全连接层的输出结果进行特征映射后输出;将特征映射的输出结果输入至视觉状态空间模型中进行初次迭代训练,并将初次迭代训练的输出结果再输入至视觉状态空间模型中进行二次迭代训练后输出;将特征映射的输出结果输入至稀疏卷积神经网络中,提取局部特征,密集化操作后输出;所述将特征映射的输出结果输入至视觉状态空间模型中进行初次迭代训练,并输出结果再输入至视觉状态空间模型中进行二次迭代训练后输出的过程具体包括如下步骤:将特征映射的输出结果输入至视觉状态空间模型的第一部分中进行初次迭代训练后输出;所述视觉状态空间模型的第一部分是指基于二维选择性扫描模型,对低层次柱状点云进行多方向的特征建模;将经视觉状态空间模型的第一部分初次迭代训练的输出结果输入至视觉状态空间模型的第二部分中进行初次迭代训练后输出;所述视觉状态空间模型的第二部分是基于前馈网络,引入门控多层感知机和残差连接网络的特征提取;将经视觉状态空间模型的第二部分初次迭代训练的输出结果再输入至视觉状态空间模型的第一部分中进行二次迭代训练后输出;将经视觉状态空间模型的第一部分二次迭代训练的输出结果再输入至视觉状态空间模型的第二部分中进行二次迭代训练后输出;所述特征融合模块的过程具体包括如下步骤:将视觉状态空间模型中二次迭代训练的输出结果和稀疏卷积神经网络的输出结果进行特征结合,并进行批量归一化处理;将特征结合结果与批量归一化结果进行深度特征融合,获取大范围场景点云的全局特征和局部特征。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南大学,其通讯地址为:410082 湖南省长沙市岳麓区麓山南路麓山门;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。