Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜浙江工业大学钱丽萍获国家专利权

恭喜浙江工业大学钱丽萍获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜浙江工业大学申请的专利一种基于深度学习的中文文本语义压缩方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114925701B

龙图腾网通过国家知识产权局官网在2025-05-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210608472.X,技术领域涉及:G06F40/30;该发明授权一种基于深度学习的中文文本语义压缩方法是由钱丽萍;钱江;王寅生;吴湾湾;王倩设计研发完成,并于2022-05-31向国家知识产权局提交的专利申请。

一种基于深度学习的中文文本语义压缩方法在说明书摘要公布了:一种基于深度学习的中文文本语义压缩方法,对于输入的一篇中文文本,经过系统模型,能够最大程度上压缩其语义。本发明结合了双向长短期记忆网络Bi‑LSTM以及自注意力机制Self‑Attention优势,极大程度上改善了无线通信网络中发送端的文本语义压缩效果,有效地节省无线通信传输所需要的带宽资源,从而使得接收端信息处理效率进一步提升。

本发明授权一种基于深度学习的中文文本语义压缩方法在权利要求书中公布了:1.一种基于深度学习的中文文本语义压缩方法,其特征在于,所述方法包括以下步骤:1首先对输入文本进行预处理,操作如下:将所要传输的句子s标准化为词数个数为n,参数n可以自行设定;然后利用Jieba中文分词工具进行去除停用词以及分词处理,得到w1,w2,w3,···,wn,接着运用Word2Vec中文预训练模型输出每一个单词w1,w2,w3,···,wn所对应的词向量,用c1,c2,c3,···,cn表示,词向量组c1,c2,c3,···,cn记作C;2将词向量组c1,c2,c3,···,cn输入至编码器,编码器共有相同两层,在编码器第一层中,词向量组首先进入自注意力机制,计算过程如下:qi=Wq×C,i∈[1,n]1ki=Wk×C2vi=Wv×C3其中,Wq,Wk,Wv为维数为256的可训练参数方阵;3对于每一个qi,i∈[1,n],都令其与每一个ki进行向量点乘运算,i∈[1,n],对于q1分别得到α1,1,α1,2,α1,3,···,α1,n,将α1,1,α1,2,α1,3,···,α1,n进行Softmax归一化操作,得到其中: 再将分别与各自对应的v1,v2,v3,···,vn相乘,将所得结果累加得到向量a1;将上述操作进行n次,得到向量a1,a2,a3,···,an,公式如下: 至此,完成第一次自注意力机制操作;将自注意力机制操作生成的向量称为注意力向量,即a1,a2,a3,···,an;4将注意力向量a1,a2,a3,···,an分别输入双向长短期记忆神经网络Bi-LSTM层,分别得到向量b1,b2,b3,···,bn,维数与a1,a2,a3,···,an相同;5向量b1,b2,b3,···,bn进入编码器第二层,首先重复进行第一层中的自注意力操作,输出的注意力向量再经过双向长短期记忆神经网络输出向量组e1,e2,e3,···,en,将e1,e2,e3,···,en分别乘以维数为256的可训练参数方阵分别得到向量i∈[1,n];6进入解码器部分,解码器共有相同两层,第一层中,首先将由一个维数为256的初始词向量CLS输入至解码器开始进行解码操作;7由第一个目标单词词向量作为解码器第二次解码的输入,同理将第一个目标单词的词向量乘以维数为256的方阵得到对应向量nq,nk,nv保留以进行后续操作;8第二个目标单词作为解码器第三次解码的输入,后续重复上述解码操作步骤,直至输出所有目标单词,从而得到预测语义9通过最小化负对数损失函数来训练模型参数,模型参数包括矩阵元素与神经网络权重;所述步骤6中,初始词向量CLS将进行自注意力机制操作,所得注意力向量记为m;下一步进入Decoder-EncoderAttention层进行注意力机制操作,过程如下:将向量m乘以维数为256的方阵得到向量qm,将向量qm分别与向量进行点乘操作,i∈[1,n],得到i∈[1,n],公式如下: 其中,为向量ei与方阵相乘所得向量,qm为向量m与方阵相乘所得向量;对进行Softmax归一化操作得到i∈[1,n],再将分别与各自对应的相乘,i∈[1,n],所得结果相加得到注意力向量r1,向量r1再经过前馈神经网络FFNN层得到向量向量进入解码器第二层,第二层中重复第一层的操作,最后经过Softmax层输出概率向量,概率值最大的维度对应为第一个目标单词。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江工业大学,其通讯地址为:310014 浙江省杭州市拱墅区潮王路18号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。