首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于Transformer模型和迁移学习的非侵入式负荷监测方法和设备 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:吉林大学

摘要:基于Transformer模型和迁移学习的非侵入式负荷监测方法和设备,属于电力系统和负荷监测技术领域,解决非侵入式负荷监测技术预测精度低以及泛化能力弱问题。本发明方法包括:建立基于Transformer的NILM模型,通过正余弦位置编码为通用特征增加位置信息;设计四头三层的头注意力机制。通过卷积层平均激活通道数以及负荷的工作特性和使用特性分析选择源任务;通过在源任务模型上训练Transformer模型,将其迁移到其他负荷NILM任务上;冻结基于Transformer模型的卷积层参数,微调其他层以适应目标负荷NILM任务。本发明适用于对负荷功耗和使用状态进行监测和评估的场景。

主权项:1.一种基于Transformer模型和迁移学习的非侵入式负荷监测方法,其特征在于,所述方法包括:步骤1:将采集到的电力信号进行数据预处理;步骤2:建立基于Transformer的NILM模型,利用所述基于Transformer的NILM模型预测某一负荷的功率;所述基于Transformer的NILM模型输入为总线功率序列,目标是预测在该序列中心点的某一负荷的功率,包括卷积层、池化层、位置编码层、位置嵌入层、Transformer编码器、展平层和全连接层;所述总线功率序列顺序进入一维卷积层进行初步特征提取,再进入最大池化层进行关键特征初步提取,然后在通过一维卷积层进一步提取特征,最后再进入最大池化层完成特征提取的过程;所述位置编码层使用正余弦函数进行位置编码,为每个位置产生一个唯一的编码向量;所述Transformer编码器包括多头注意力机制,所述多头注意力机制通过并行地执行多次注意力函数,每次使用不同的线性变换得到的查询、键、值来提高模型的表达能力;所述全连接层通过线性层和tanh激活函数组合,对展平后的一维张量进行特征变换和非线性映射以学习复杂的特征表示,最后得到NILM预测结果;步骤3:利用迁移学习技术优化所述基于Transformer的NILM模型在不同地域或者负荷类型任务上的预测性能,获取非侵入式负荷监测结果。

全文数据:

权利要求:

百度查询: 吉林大学 基于Transformer模型和迁移学习的非侵入式负荷监测方法和设备

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。