汕头大学陈银冬获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉汕头大学申请的专利一种基于BERT预训练模型的双通道Web攻击检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121567477B 。
龙图腾网通过国家知识产权局官网在2026-04-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202610084303.9,技术领域涉及:H04L9/40;该发明授权一种基于BERT预训练模型的双通道Web攻击检测方法是由陈银冬;罗康强;卢金钹;林冠华;肖瑜晴设计研发完成,并于2026-01-22向国家知识产权局提交的专利申请。
本一种基于BERT预训练模型的双通道Web攻击检测方法在说明书摘要公布了:本发明公开了一种基于BERT预训练模型的双通道Web攻击检测方法,包括:对数据集中的HTTP请求报文提取URL及请求方法、Payload与对应标签信息,并进行规范化预处理;使用预训练的URLBERT与SecBERT分别对URL与Payload参数进行独立编码,并分别生成URL和Payload多个请求参数的上下文感知的嵌入表示;对URL与Payload的嵌入表示进行融合,并拼接得到联合特征向量,输入至全连接层进行分类;使用训练集对模型进行训练,通过交叉熵损失函数作为优化目标,通过反向传播机制对模型进行优化,同步对URLBERT与SecBERT进行协同学习,并在测试集上评估其检测性能。采用本发明,对Web攻击检测任务中对请求URL与Payload特征进行充分挖掘、对参数组合关系进行建模、能有效地对攻击进行溯源。
本发明授权一种基于BERT预训练模型的双通道Web攻击检测方法在权利要求书中公布了:1.一种基于BERT预训练模型的双通道Web攻击检测方法,其特征在于,包括以下步骤: S1:对数据集中的HTTP请求报文提取URL及请求方法、Payload与对应标签信息,并进行规范化预处理; S2:使用预训练的URLBERT与SecBERT分别对URL与Payload参数进行独立编码,并分别生成URL和Payload多个请求参数的上下文感知的嵌入表示,包括步骤: S21:采用字符级嵌入策略对URL进行建模,构建字符词表并提取对应URLBERT的嵌入矩阵,将URL转换为字符序列后输入至Transformer编码器提取URL的语义特征; 其中,包括步骤: S211:对URL执行字符级标记化操作,将URL解析为连续的字符序列,将每个字符作为独立的Token,根据预定义的字符词表映射为对应的索引序列,形成输入ID向量,若输入URL中出现不在字符词表中的字符,则统一替换为[UNK]标记,所述索引序列将与[CLS]和[SEP]特殊符号拼接,构成完整的输入序列,并输入到URLBERT模型进行后续的语义编码;在每个训练批次中,选取该批次中最长的URL字符序列长度作为填充标准,其余较短序列在末尾补齐[PAD]标记,保证张量维度的一致性;在Transformer编码过程中,[PAD]标记所对应的位置会被attentionmask屏蔽,确保其不会对上下文语义建模产生干扰; S212:通过查找预构建的字符嵌入矩阵,获取每个字符ID对应的token嵌入,在获得标记嵌入表示后,进一步引入位置嵌入与类型嵌入进行向量增强处理,其中,位置嵌入用于标识每个字符在序列中的位置,帮助模型捕捉字符间的顺序信息;类型嵌入用于区分不同输入片段之间的归属关系;字符嵌入、位置嵌入与类型嵌入三者相加,形成URL输入序列在Transformer编码器中的最终输入表示; S213:嵌入向量作为输入送入URLBERT模型进行编码,在URLBERT的内部结构中,输入序列依次通过多个堆叠的Transformer编码层,每一层编码器均由多头注意力机制、前馈神经网络和残差连接与层归一化组成,从不同子空间捕捉序列内部的语义依赖关系和结构特征,最终提取和整合字符级输入中的上下文信息; S214:经过URLBERT模型的编码过程,可获得每个输入token对应的隐藏状态表示,记作[U0,U1,U2,...Un],第一个特殊标记[CLS]对应的隐藏状态U0,作为整个URL序列的全局语义表示Uembedding; S22:使用预训练模型SecBERT对HTTP请求中的Payload请求参数独立编码,生成请求参数上下文感知的嵌入表示,随后引入多头注意力机制捕捉请求参数之间的组合关系,并通过池化操作整合为Payload整体的语义特征,作为后续分类模块的输入之一; 其中,包括步骤: S221:对Payload执行字符级标记化操作,将每个参数值解析为连续的字符序列,每个字符作为独立的Token,根据预定义的字符词表映射为对应的索引序列,构成标准的输入ID向量; S222:通过查找预构建的字符嵌入矩阵,获取每个字符对应的token嵌入,在获得标记嵌入表示后,在对每个请求参数进行嵌入时,引入位置编码用于标识字符在序列中的相对位置信息;添加统一的类型编码;字符嵌入、位置编码与类型编码相加后,构成最终输入表示,并输入至SecBERT模型进行处理; S223:每个参数嵌入序列在输入至SecBERT后,经过多层堆叠的Transformer编码器处理,每层编码器均包含多头注意力机制、前馈神经网络及残差连接与层归一化结构,逐步从字符级输入中提取语义特征,最终提取出参数级的[CLS]向量作为其上下文语义表示; S224:所有经过注意力机制强化的参数表示将通过平均池化操作进行融合,形成统一的Payload全局语义表示Pembedding,作为后续特征融合模块的输入; S3:对URL与Payload的嵌入表示进行融合,并拼接得到联合特征向量,输入至全连接层进行分类; S4:使用训练集对模型进行训练,通过交叉熵损失函数作为优化目标,通过反向传播机制对模型进行优化,同步对URLBERT与SecBERT进行协同学习,并在测试集上评估其检测性能。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人汕头大学,其通讯地址为:515063 广东省汕头市大学路汕头大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励