南京大学于耀获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京大学申请的专利一种人体三维重建方法、系统、设备、介质及产品获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119810334B 。
龙图腾网通过国家知识产权局官网在2025-10-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510012314.1,技术领域涉及:G06T17/00;该发明授权一种人体三维重建方法、系统、设备、介质及产品是由于耀;赵云飞;周余设计研发完成,并于2025-01-06向国家知识产权局提交的专利申请。
本一种人体三维重建方法、系统、设备、介质及产品在说明书摘要公布了:本申请公开了一种人体三维重建方法、系统、设备、介质及产品,涉及计算机视觉和稀疏视角三维重建技术领域,该方法包括:获取待拍摄人体的多视角RGB图像;对所述多视角RGB图像进行预处理,得到预处理后的多视角RGB图像;将预处理后的多视角RGB图像输入至多视角人体深度图预测模型中,得到主视角人体深度预测图;将多幅主视角人体深度预测图进行融合,得到融合后的主视角人体深度预测图;基于融合后的主视角人体深度预测图,采用三维重建方法进行人体三维重建,得到人体三维重建结果;所述人体三维重建结果为人体表面网格。本申请提高了人体三维重建结果的表面平滑度。
本发明授权一种人体三维重建方法、系统、设备、介质及产品在权利要求书中公布了:1.一种人体三维重建方法,其特征在于,所述人体三维重建方法包括: 获取待拍摄人体的多视角RGB图像;所述多视角RGB图像包括:主视角RGB图像和俯视角RGB图像; 对所述多视角RGB图像进行预处理,得到预处理后的多视角RGB图像; 将预处理后的多视角RGB图像输入至多视角人体深度图预测模型中,得到主视角人体深度预测图;所述多视角人体深度图预测模型是采用训练数据集对基于CNN的深度学习网络进行训练得到的;所述训练数据集包括预处理后的样本多视角RGB图像和对应的样本主视角人体深度图; 将多幅主视角人体深度预测图进行融合,得到融合后的主视角人体深度预测图; 基于融合后的主视角人体深度预测图,采用三维重建方法进行人体三维重建,得到人体三维重建结果;所述人体三维重建结果为人体表面网格; 基于CNN的深度学习网络包括依次连接的带自注意力的多层级图像特征编码器、带局部语义特征的损失空间构建层以及稀疏卷积模块; 利用带自注意力的多层级图像特征编码器提取输入的多视角RGB图像的高级语义特征;在带局部语义特征的损失空间构建层将多视角RGB图像的高级语义特征根据相机参数反投影到3D体素中,计算每个体素在不同视角的反投影图像特征的方差,并将每个体素在不同视角的反投影图像特征的方差与主视角图像的高级语义特征结合,得到带局部语义特征的损失空间;在带局部语义特征的损失空间上,在局部语义特征的指导下,利用稀疏卷积模块进行进行保持原有体素邻接关系的稀疏3D卷积,获得主视角的第一分辨率深度图; 每个体素在不同视角的反投影图像特征的方差的计算公式如下: 其中,N为视角数,Vi为第i个视角的反投影图像特征,是反投影到体素的图像特征均值;Var是反投影到体素的反投影图像特征的方差; 带局部语义特征的损失空间的计算公式如下: C=ConcateVar,Vs; 其中,C为带局部语义特征的损失空间;Concate表示在通道维度上拼接;Vs是主视角图像的高级语义特征; 利用主视角的第一分辨率深度图进行插值上采样,得到主视角的第二分辨率深度图,并以主视角的第二分辨率深度图为基础构建第二分辨率对应的聚焦于基础深度附近的带局部语义特征的损失空间,继续进行稀疏3D卷积,得到主视角的第三分辨率的深度图,再继续进行插值上采样-得到第四分辨率的深度图-构建第四分辨率对应的带局部语义特征的损失空间-稀疏3D卷积-得到主视角的第五分辨率的深度图,重复操作,直至获得主视角的目标分辨率的深度图; 其中,目标分辨率为对应的样本主视角人体深度图的分辨率,对应的样本主视角人体深度图的分辨率与输入的主视角RGB图像的分辨率一致,且第一分辨率小于第二分辨率,第二分辨率小于第三分辨率,第三分辨率小于第四分辨率,第四分辨率小于第五分辨率。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京大学,其通讯地址为:210046 江苏省南京市栖霞区仙林大道163号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励