Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜浙江大学王润发获国家专利权

恭喜浙江大学王润发获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜浙江大学申请的专利一种基于多目标跟踪的交通行为判定方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114694078B

龙图腾网通过国家知识产权局官网在2025-05-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210369314.3,技术领域涉及:G06V20/52;该发明授权一种基于多目标跟踪的交通行为判定方法是由王润发;于慧敏;齐国栋;卢朝晖;顾建波设计研发完成,并于2022-04-08向国家知识产权局提交的专利申请。

一种基于多目标跟踪的交通行为判定方法在说明书摘要公布了:本发明公开了一种基于多目标跟踪的交通行为判定方法。该方法通过使用多目标跟踪的方法,对交通监控场景的行人非机动车目标进行持续定位和轨迹生成,再通过分析目标的运动方向,完成当前目标的交通行为判定。具体而言,多目标跟踪的方法是首先在路口划定跟踪目标的起始区域,之后在视频流输入处理时,采取隔帧检测和基于运动外形预测相匹配的多目标跟踪策略,对行人非机动车目标进行定位与轨迹生成,在每个目标跟踪一定时间后可判定交通行为。该方法通过优化多目标跟踪的流程,并结合视觉信息与运动信息,使得对目标的跟踪更加快速准确,本方法可用于交通系统智能化分析,辅助交警治理交通违法违规现象。

本发明授权一种基于多目标跟踪的交通行为判定方法在权利要求书中公布了:1.一种基于多目标跟踪的交通行为判定方法,其特征在于,具体包括如下步骤:(1)首先给定一段交通监控视频;(2)从这段交通监控视频中抽取一帧交通监控视频画面,对视频画面中行人、非机动车的跟踪初始区域regions进行划定;(3)使用OpenCV工具请求交通监控服务器的RTSP协议地址,读取到实时视频流,使用多目标跟踪技术对画面中经过跟踪初始区域regions的行人、非机动车目标进行跟踪,当目标被跟踪超过时间阈值Ttrack或到达画面边界时结束该目标的跟踪;所述使用多目标跟踪技术对画面中经过跟踪初始区域regions的行人、非机动车目标进行跟踪,当目标被跟踪超过时间阈值Ttrack或到达画面边界时结束该目标的跟踪;具体为:(3.1)按照顺序读取交通监控视频流中的一帧图像,输入第一帧图像时,进行对行人、非机动车目标检测,对于处在跟踪起始区域regions的目标进行基于视觉信息和运动信息的建模,并存储该目标的外观特征表示;其中,基于视觉信息的建模为建立该目标的外观特征表示与空间位置的相关性,基于运动信息的建模则建立基于目标运动速度、尺寸变化的预测模型;(3.2)在之后输入的帧中每间隔固定帧数进行目标检测,若当前帧不进行目标检测时,对上一帧正在被跟踪的目标分别进行基于视觉信息和运动信息的位置预测,并根据两者的位置预测位置融合,作为跟踪结果;所述对上一帧正在被跟踪的目标分别进行基于视觉信息和运动信息的位置预测,并根据两者的位置预测位置融合,具体为:遍历当前所有的跟踪目标,分别使用基于视觉信息的单目标跟踪器、基于运动信息的卡尔曼滤波器进行位置预测,获得目标的预测位置、;步骤3.3.2:若、的交叠覆盖度IoU高于阈值达成匹配,则使用作为观测值更新卡尔曼滤波器的状态,并获取此时卡尔曼滤波器的观测值作为当前帧该目标的位置;(3.3)当前帧需要进行目标检测时,获取上一帧正在被跟踪的目标的基于视觉信息和运动信息的位置预测后,使用目标检测的跟踪结果对预测结果进行基于目标包围框交并比IoU的校正,检测结果中没有被跟踪的目标,则会再次进行如步骤(2)的操作;(3.4)继续处理交通监控视频流的剩余帧图像,重复步骤(3.2)和(3.3),直至视频结束;(4)对于步骤(3)中跟踪结束的目标,根据其起始位置与跟踪结束位置,进行交通行为的判定,输出该目标的跟踪ID、交通行为、发生时间和绘制轨迹的图像。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江大学,其通讯地址为:310058 浙江省杭州市西湖区余杭塘路866号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。