北京理工大学何洪文获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京理工大学申请的专利基于深度强化学习的自动驾驶端对端纵向运动控制方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116088504B 。
龙图腾网通过国家知识产权局官网在2025-09-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211639317.0,技术领域涉及:G05D1/43;该发明授权基于深度强化学习的自动驾驶端对端纵向运动控制方法是由何洪文;王勇;汤颖娟;李佳奇;连仁宗;王浩宇;韩若言设计研发完成,并于2022-12-20向国家知识产权局提交的专利申请。
本基于深度强化学习的自动驾驶端对端纵向运动控制方法在说明书摘要公布了:本发明提供了一种基于深度强化学习的自动驾驶端对端纵向运动控制方法,基于马尔科夫决策过程建立的强化学习模型,在仿真环境实现模型训练。在云端完成训练后进行实车部署,车载域控制器实时地将感知信息作为输入,输出电机和制动器力矩的指令,实现了对智能网联电动汽车的端对端纵向运动控制。对于强化学习模型训练初始化,利用了分层控制策略的预训练结果,从而以模仿学习的方式使训练大大加速,结合对多个目标优化也使训练好的模型性能显著提高。在端对端控制失效时由车辆自身完成控制决策,并且在自动驾驶策略都失效后转由驾驶员接管,如此以冗余机制充分保证了控制稳定性与行驶安全性。
本发明授权基于深度强化学习的自动驾驶端对端纵向运动控制方法在权利要求书中公布了:1.一种基于深度强化学习的自动驾驶端对端纵向运动控制方法,其特征在于:包括以下步骤: 步骤一、建立车辆纵向跟驰模型,用于分别描述本车与前车之间实时的间距、速度差、间距误差,以及本车加速度与速度间的关系; 步骤二、建立基于马尔科夫决策过程的强化学习模型,包括: 输出的车辆各动作,包括驱动转矩与制动转矩; 建立状态空间S: S={vp,vego,aego,|d-Dsafe|,vego-vref,d,Tmot,Pb} vp是前车速度,vego是本车速度,aego是本车加速度,vref是本车参考速度,d是本车与前车间距,Dsafe是本车与前车安全距离,Tmot是电机转矩,Pb是动力电池输出功率; 定义决策过程中的各奖励,包括: 跟车稳定性奖励rfollow: rfollow=min{rfollow1,rfollow2} rfollow1=-tanh|d-Dsafe| rfollow2=-tanh|vego-vref| vset为本车设定速度; 安全性奖励rsafe: 舒适性奖励rconfort: aego为本车加速度,Jerkego为加速度变化率,Δu为动作变化率; 能耗经济性奖励reco: reco=-tanhEd Pb,out为电池输出功率,Pb,regen为电池可回收功率,t时刻内电池总电耗为E; 步骤三、利用车辆状态及车载传感器的感知数据对基于分层控制的纵向运动控制策略进行训练,并利用训练好的所述策略对强化学习模型的训练过程初始化,用于以模仿学习的方式使训练加速; 步骤四、完成所述初始化后对强化学习模型训练直至收敛;训练好的强化学习模型作为智能驾驶域,向车端运动控制域提供基于感知数据生成期望速度的分层控制指令以及期望电机转矩控制指令; 步骤五、在云端完成前述步骤一至四后,将训练好的强化学习模型应用于实车自动驾驶控制,由所述运动控制域接收智能驾驶域的各指令输出电机和制动器转矩指令,实现云端对车端的端对端整车纵向运动控制。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励