北京大学胡天跃获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京大学申请的专利双深度神经网络约束的无监督学习分离多震源数据的方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115630295B 。
龙图腾网通过国家知识产权局官网在2026-01-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211179180.5,技术领域涉及:G01V1/28;该发明授权双深度神经网络约束的无监督学习分离多震源数据的方法是由胡天跃;王坤喜;赵邦六;王尚旭;曾庆才;陈胜;王春明设计研发完成,并于2022-09-27向国家知识产权局提交的专利申请。
本双深度神经网络约束的无监督学习分离多震源数据的方法在说明书摘要公布了:本发明公布了一种双深度神经网络约束的无监督学习分离多震源数据的方法,构建具有双深度神经网络约束的无监督深度神经网络结构进行迭代反演,通过基于双深度神经网络约束的无监督学习方法,使用训练好的神经网络参数,对采集到的多震源数据进行分离;属于地震相干噪声数据处理技术领域。采用本发明提供的技术方案,使用具有双深度神经网络约束的无监督深度神经网络,不需要使用期待的分离结果作为标签数据,能够解决标签数据缺失的问题,进一步更好地分离多震源数据,从而很好地缩减野外采集时间,节约采集成本,提高后续地震成像效果。
本发明授权双深度神经网络约束的无监督学习分离多震源数据的方法在权利要求书中公布了:1.一种双深度神经网络约束的无监督学习分离多震源数据的方法,其特征是,构建具有双深度神经网络约束的无监督深度神经网络模型进行迭代反演,通过基于双深度神经网络约束的无监督学习方法,对采集到的多震源数据进行分离;包括以下步骤: 步骤1,对基于高密度采集观测系统采集到的多震源混叠数据进行预处理;包括:对采集到的多震源混叠数据进行高程静校正;进行随机噪声压制、面波压制、涌浪噪声压制和导波压制;得到包含串扰噪声的预处理混叠数据; 步骤2,对预处理混叠数据进行振幅归一化和尺寸分割,得到用于模型训练的混叠数据块; 步骤3,构建残差深度神经网络和U-net深度神经网络; 残差深度神经网络结构包括多个卷积层和残差块;除第1个卷积层和最后一个卷积层外,每3个卷积层组成一个残差块,并通过残差连接将3个卷积层跨层连接实现恒等映射; U-net深度神经网络架构包括一个输入层、一个输出层和多组中间层;网络采用对称的编码和解码结构,编码结构用于提取数据特征,解码结构用于恢复数据;输入的地震数据和输出的地震数据的尺寸相同; 步骤4,使用残差深度神经网络和U-net深度神经网络构建无监督深度神经网络; 构建的无监督深度神经网络包括输入数据[x1;x2]和输出数据[y1;y2];其中,第1个输入数据x1为第一个震源的混叠数据块;第2个输入数据x2为第二个震源的混叠数据块;分别将第1个输入数据和第2个输入数据送入残差深度神经网络支路和U-net深度神经网络支路; 残差深度神经网络用于提取第1个输入数据和第2个输入数据中相同的连续有效信号,并将该连续有效信号输出为第1个输出数据;残差深度神经网络的输入数据为第1个输入数据x1,输出为第1个输出数据y1,第1个输出数据y1为第二个震源的分离结果; U-net深度神经网络用于提取第2个输入数据和第1个输入数据中相同的连续有效信号,并将该连续有效信号输出为第2个输出数据;U-net深度神经网络的输入数据为第2个输入数据,输出为第2个输出数据;第2个输出数据为第一个震源分离结果; 残差深度神经网络支路和U-net深度神经网络支路分别提取得到第二个震源中的有效相干信号和第一个震源中的有效相干信号; 第一个震源原始未混叠数据和第二个震源原始未混叠数据之间的差Δe趋近于0;无监督深度神经网络将残差深度神经支路和U-net深度神经网络支路进行组合,并最小化Δe,使得无监督深度神经网络继承残差深度神经支路和U-net深度神经网络的全部输出; 步骤5,训练无监督深度神经网络:无监督深度神经网络使用2个输入数据和2个输出数据得到5个基础损失,设计双深度神经网络约束的无监督深度神经网络模型的总损失函数并最小化,在残差深度神经网络支路中得到的输出数据y1和y2分别为第二炮未混叠数据的估计值和第一炮混叠数据中的串扰噪声;在U-net深度神经网络支路中得到的输出数据y2为第一炮未混叠数据的估计值;将第一炮混叠数据和第二炮混叠数据映射为串扰噪声压制后的分离结果,实现多震源数据的分离; 设计第一次迭代分离的损失函数L,包括: 51残差深度神经网络支路中损失函数L1和L2分别表示为: L1ΘR=||x2-fRx1,ΘR||1+μ1||ΘR||113 L2ΘR=||x1-fRx1,ΘR||1+μ2||ΘR||114 其中,μ1和μ2表示正则化因子;fR为残差深度神经网络;x1、x2分别为第一个输入数据和第二个输入数据;残差深度神经网络fR学习得到的深度神经网络参数为ΘR; 通过最小化残差深度神经网络支路中的损失函数L1ΘR提取x2中有效相干信号;损失函数L2ΘR用于防止残差深度神经网络过拟合; 52U-net深度神经网络支路中损失函数L3和L4分别表示为: L3ΘU=||x1-fUx2,ΘU||1+μ3||ΘU||115 L4ΘU=||x2-fUx2,ΘU||1+μ4||ΘU||116 其中μ3和μ4表示正则化因子;fU为U-net深度神经网络; 通过最小化L3ΘU,U-net深度神经网络fU提取x1中有效相干信号;损失函数L4ΘU用于防止U-net深度神经网络fU过拟合; 53使用残差深度神经网络fR和U-net深度神经网络fU构建无监督神经网络,且使得Δe趋近于0,设计损失函数L5,表示为: L5Θ=||fRx1,ΘR-fUx2,ΘU||1+μ5||Θ||117 其中μ5表示正则化因子;通过最小化损失函数L5Θ进一步防止无监督深度神经网络过拟合,并得到正确的第一炮和第二原始未混叠数据的估计值; 54训练无监督深度神经网络f的最终损失函数LΘ表示如下: 其中μ表示正则化因子,f1和f2分别表示无监督深度神经网络f的第1个输出和第2个输出;通过最小化无监督深度神经网络的损失函数LΘ,得到深度神经网络参数Θ,即得到训练好的无监督深度神经网络模型;Θ=[ΘR;ΘU]; 步骤6,将混叠数据块送入训练好的无监督深度神经网络中,通过迭代反演分离方法分别提取得到第一炮和第二炮混叠数据中的相干信号;从而得到串扰噪声压制后的分离数据; 进行迭代反演分离表示如下: 其中,G为得到的分离数据;P表示将全部混叠数据中每2个相邻混叠数据组合;B代表为从数据空间映射到模型空间的逆映射算子;m为迭代次数;R-1是R的逆变换,代表将振幅恢复为原始振幅;为Kβ的逆变换,Kβ为切割算子;为预处理混叠数据经过延迟时间算子si的逆算子的作用得到的混叠数据;Γ为混叠算子;I为单位矩阵; 通过上述步骤,实现对在高密度采集观测系统下多震源数据进行压制串扰噪声,得到分离数据。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京大学,其通讯地址为:100871 北京市海淀区颐和园路5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励