恭喜武汉工程大学;武汉逸锦科技有限公司王浩获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜武汉工程大学;武汉逸锦科技有限公司申请的专利一种高效的类手-文混合目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114359885B 。
龙图腾网通过国家知识产权局官网在2025-05-27发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111620882.8,技术领域涉及:G06V20/62;该发明授权一种高效的类手-文混合目标检测方法是由王浩;周华兵;张彦铎;卢涛;鲁统伟;李迅;王燕燕设计研发完成,并于2021-12-28向国家知识产权局提交的专利申请。
本一种高效的类手-文混合目标检测方法在说明书摘要公布了:本发明提供了一种高效的类手‑文混合目标检测方法,通过设计的混合目标检测模型在已经具备手指、笔等类柱体物和目标文本的图像数据集进行训练,平衡地划分训练的正负样本,使深度网络模型只对图像中同时包含类手指指尖和文本字词的区域感兴趣,降低深度网络模型在图像其他区域所生成的预测框的置信度,从而在现实阅读场景中做到模型只对手指所指向的文本进行检测,而忽略当前页的其他文本字词,避免了对图像中手指、笔等类柱体物和文字的两次目标检测与坐标变换的过程,优化了检测的实时性,简化了检测的思路。
本发明授权一种高效的类手-文混合目标检测方法在权利要求书中公布了:1.一种高效的类手-文混合目标检测方法,其特征在于:包括以下步骤:S1:采用图像合成及数据增强的方式制备包括手指、笔的类柱体物指向文本的类手-文混合目标数据集,划分类手-文混合目标数据集中图像的正样本和负样本,对图像的目标区域标注真实框,记录真实框的坐标信息;S2:设计适用于类手-文混合目标检测的算法搭建深度神经网络模型;以深度神经网络模型输出的预测框与真实框之间的面积交并比为预设阈值,用于平衡划分训练正负样本;S3:采用类手-文混合目标数据集迭代训练深度神经网络模型,从图像数据中提取特征并且按照给定的目标检测原理和预设阈值回归得到与真实框相近的混合目标检测候选框;S4:采用训练后调整好参数权重的深度神经网络模型对现实阅读场景下的类手-文验证集和测试集进行类手-文混合目标的检测。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人武汉工程大学;武汉逸锦科技有限公司,其通讯地址为:430074 湖北省武汉市洪山区雄楚大街693号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。