南昌大学熊鹏文获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南昌大学申请的专利基于贪婪深度字典学习的机器人多模态物体识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115661742B 。
龙图腾网通过国家知识产权局官网在2025-11-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211251268.3,技术领域涉及:G06V20/52;该发明授权基于贪婪深度字典学习的机器人多模态物体识别方法是由熊鹏文;王月柔;周雨梦;肖洋;李军;王雯钰;汪永阳;何程杰;刘继忠;宋爱国;刘小平设计研发完成,并于2022-10-13向国家知识产权局提交的专利申请。
本基于贪婪深度字典学习的机器人多模态物体识别方法在说明书摘要公布了:本发明涉及物体识别技术领域,具体涉及一种基于贪婪深度字典学习的机器人多模态物体识别方法,该方法包括以下步骤:视觉模态与触觉模态数据采集、数据特征提取、视觉模态与触觉模态融合、惩罚字典的贪婪深度字典学习、特征表示合并和分类器设计。该方法克服了传统视觉模态在单模态识别时识别率低的难题,解决了触觉训练样本不足的问题。采用多模态融合的方式进行物体识别,视觉模态与触觉模态的融合可以获得物体的形状、颜色、纹理和粗糙度特征,且无需创建大型的训练测试数据集,省时省力,提高了识别物体的准确率。
本发明授权基于贪婪深度字典学习的机器人多模态物体识别方法在权利要求书中公布了:1.一种基于贪婪深度字典学习的机器人多模态物体识别方法,其特征在于,主要包括以下步骤: S1,视觉模态与触觉模态数据采集 1a视觉模态的数据采集采用照相机完成; 1b触觉模态的数据采集采用配备触觉传感器的灵巧手,将其搭载在机械臂末端完成; 1c进行数据采集工作时,机械臂使用照相机获取物体图像,并使用手指触摸它,以此获得待识别物体的图像样本与触觉样本; S2,数据特征提取; 2a对图像数据进行特征提取采用尺度不变特征变换算法,该算法具有尺度不变性,可以检测出图像中的关键点; 2b对触觉数据进行预处理得到列矢量后采用主成分分析算法得到触觉序列特征,减少触觉序列中的冗余部分,降低整体分类算法的时间成本; S3,视觉模态与触觉模态融合 将视觉特征矩阵与触觉序列特征矩阵水平方向合并进行融合,融合后得到数据集,分割数据集得到训练集X与测试集Xtest,获得物体的形状、颜色、纹理和粗糙度特征,提高识别物体的准确率; S4,惩罚字典的贪婪深度字典学习 惩罚字典的贪婪深度字典学习是对多层字典框架进行逐层训练,每一层都通过迭代训练进行优化,得到训练集数据的特征表示Z={Z1,Z2,...,ZL}与字典层Ω={D1,D2,…,DL},共L层,输入测试样本n的数据xtest,根据训练求解的字典层Ω={D1,D2,…,DL}得到测试样本n的所有特征表示zS,test={z1,test,z2,test,...,zL,test}; S5,特征表示合并 特征表示合并是将浅层的边、角、线特征表示与深层的复杂抽象特征表示合并,以跨层保存信息,提高识别物体的准确率,将训练集数据的第一层特征表示Z1与最深层的稀疏表示ZL合并得到ZS,将测试样本n的第一层特征表示z1,test与最深层的稀疏表示zL,test合并得到zS,test,表示如下: S6,分类器设计 设计分类器得到测试样本的标签以进行物体识别,测试样本的标签定义如下: 其中,共M个待识别物品,标签数为M,m为输入的某个测试样本的标签,是ZS中相应标签的子向量,ZS为训练集数据的浅层与深层特征表示合并的向量,zS,test为某个测试样本的浅层与深层特征表示合并的向量。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南昌大学,其通讯地址为:330000 江西省南昌市红谷滩新区学府大道999号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励