Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜南京航空航天大学;芜湖辛巴网络科技有限公司盛小飞获国家专利权

恭喜南京航空航天大学;芜湖辛巴网络科技有限公司盛小飞获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜南京航空航天大学;芜湖辛巴网络科技有限公司申请的专利一种基于未来场景生成网络的远程控制抗时延视频传输方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119254998B

龙图腾网通过国家知识产权局官网在2025-03-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411775528.6,技术领域涉及:H04N21/218;该发明授权一种基于未来场景生成网络的远程控制抗时延视频传输方法是由盛小飞;王春燕;周小川;吴涛;陈高设计研发完成,并于2024-12-05向国家知识产权局提交的专利申请。

一种基于未来场景生成网络的远程控制抗时延视频传输方法在说明书摘要公布了:本发明公开了一种基于未来场景生成网络的远程控制抗时延视频传输方法,包括:将远控车辆和远程驾驶舱的时间基准进行同步;采集远控车辆所处环境的原始视频流数据;将原始视频流数据中添加摄像头编号和时间戳信息;对解码后的视频流数据进行预处理,以生成多路未来场景;生成多路未来场景视频流数据;将多路未来场景视频流中添加摄像头编号以及时间戳信息;对数据解密、解码并分发;对原始视频流数据进行丢包和时延检测,同时对未来场景视频流数据进行视觉质量优化;形成完整连续的视频流。本发明大幅减少了视频传输中的延迟,未来场景生成可以提前预测和生成未来时刻的视频内容,从而有效地填补由于传输延迟或数据丢包而可能出现的视频空白。

本发明授权一种基于未来场景生成网络的远程控制抗时延视频传输方法在权利要求书中公布了:1.一种基于未来场景生成网络的远控抗时延视频传输方法,其特征在于,应用于远程车辆控制场景中,场景中包含远控车辆、云服务器、远程驾驶舱、显示屏,所述云服务器通过网络分别与远控车辆、远端驾驶舱数据连接,远端驾驶舱与显示屏通过数据线连接;方法步骤如下:1将远控车辆和远程驾驶舱的时间基准进行同步;2通过多路环视摄像头采集远控车辆所处环境的原始视频流数据;3将原始视频流数据中添加摄像头编号和时间戳信息,编码、加密后发送给云服务器;4云服务器对接收到的视频流数据进行解密、解码,并对解码后的视频流数据进行预处理,以生成多路未来场景;5生成多路未来场景视频流数据;6将多路未来场景视频流中添加摄像头编号以及时间戳信息;7将原始视频流数据和未来场景视频流数据进行编码、加密后发送给远程驾驶舱;8远程驾驶舱对接收到的数据解密、解码并分发;9对原始视频流数据进行丢包和时延检测,同时对未来场景视频流数据进行视觉质量优化;10形成完整连续的视频流;所述步骤4具体包括:41云服务器使用AES-128解密算法对接收到的视频流数据进行解密处理;42使用高效视频编码解码器将解密后的视频流数据恢复为原始视频帧;解码后的每一帧都保留摄像头编号和时间戳信息;43将解码后的n帧视频分为n-1组,并对每组图像进行高斯金字塔下采样,将图像尺寸调整为1024x512,再对图像像素值进行归一化处理,将其范围调整到[0,1],同时将图像数据类型转换为float32,通过将图像的像素值除以255以及相应的数据格式转换函数来实现;将图像的颜色通道顺序从RGB转换为未来场景生成所需的BGR格式,并将通道顺序调整为通道数、高、宽;根据设置好的批次大小,将每组图像打包成一个批次;所述步骤5具体包括:51从每组图像中提取多尺度、多层次的浅层特征;通过分层的卷积层逐步处理输入图像,提取出细粒度的特征图;在每个卷积层中,逐步降低输入特征图的分辨率,并不断增加通道数,压缩数据量并保留特征信息;52进一步优化步骤51中得到的特征图,通过多尺度膨胀卷积来增强特征的表达能力,使用膨胀卷积在不增加计算量的情况下扩大感受野,从而整合来自不同空间尺度的信息;通过设置不同的膨胀率来处理来自不同尺度的特征图,能够获取输入图像在多个尺度上的边缘、纹理和局部形状信息;再使用线性层对特征图进行融合,生成跨尺度的外观特征,以此保留输入特征的细节信息,并增强了特征图的全局上下文信息;53利用transformer结构与帧间注意力机制捕捉输入两帧之间的运动信息和外观信息;通过帧间注意力机制实现运动信息和外观信息的统一提取;所述帧间注意力机制通过计算当前帧与相邻帧之间的相似度,生成用于提取运动特征的注意力图,注意力图能够捕捉帧间的运动信息,且在不丢失细节的情况下增强外观特征的表达能力,使得在生成未来视频帧时能够准确反映输入视频帧之间的运动变化,同时保留物体的细节和纹理;54将获得的特征信息转化为具体的光流估计,并逐步细化估计结果,最终生成准确的未来视频帧;具体为:通过线性扩展和特征融合生成初步的光流估计,初步的光流估计表示输入视频帧之间的像素运动,逐级细化初步的光流估计,使得初步的光流估计能够准确捕捉到输入视频帧中的细微运动变化;使用3层卷积层,每层卷积层都通过计算残差来不断更新和修正前一层的估计结果,结合上采样操作,使得初步的光流估计能够逐步恢复到与输入图像相同的分辨率;将生成的光流和融合图用于合成未来视频帧,确保合成帧与输入视频帧在视觉上的一致性和运动上的连贯性;55对步骤54中生成的未来视频帧进行细化处理,以提升最终输出视频帧的视觉质量;具体为:利用多尺度特征和上下文信息对未来视频帧进行修复,确保输出视频帧的高质量;在细化网络中,初步生成的未来视频帧经过几次下采样,以提取多尺度的特征,特征通过卷积层处理,进一步增强纹理和细节信息;再通过上采样操作,将特征被恢复到与输入视频帧相同的分辨率,并与初始未来视频帧融合,生成最终输出未来视频帧;56对细化处理生成的未来视频帧进行封装,按照顺序进行视频帧的组装,得到在时域上快于原始视频流V_o={Fo_1,Fo_2,...,Fo_m}若干帧的生成视频流V_g{Fg_1,Fg_2,...,Fg_m},其中m为总帧数,Fo_i,Fg_i分别表示原始视频流和生成视频流的第i帧;所述步骤10具体包括:将利用优化后的高质量生成视频流V_hq进行补偿的完整视频数据传输至驾显示屏上进行实时回显。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京航空航天大学;芜湖辛巴网络科技有限公司,其通讯地址为:210000 江苏省南京市秦淮区御道街29号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。