首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于复杂科学的元强化学习对股指已实现波动率的预测方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:浙大城市学院;杭州伊园科技有限公司

摘要:本发明提供一种基于复杂科学的元强化学习对股指已实现波动率的预测方法,所述预测方法结合金融环境和元知识环境,通过强化学习器的训练实现对股指已实现波动率的预测。本发明将复杂科学的理论和结合适应市场假说的观点相结合,以数据形式,数量化地反映适应市场假说的观点,从而实现将假说观点落地到量化的过程,实现准确定量的金融市场特征规律预测,也消除了现有技术中因为市场风格转换而造成的一些不确定因素的影响。

主权项:1.基于复杂科学的元强化学习对股指已实现波动率的预测方法,其特征在于:所述预测方法结合金融环境和元知识环境,通过强化学习器的训练实现对股指已实现波动率的预测,具体包括以下步骤:1提取波动率特征,结合复杂科学的理论背景和适应性假说观点,提取波动率的元知识,所述元知识来源包括波动率的正序列相关性和周期性;2选取强化学习算法,构成强化学习器;所述强化学习器以广义策略迭代GeneralizedPolicyIteration,GPI准则作为策略求解的基本形式,首先通过下式完成策略估计:vπs=∑aπa∣s∑s′,rps′,r∣s,a[r+γvπs′]式中,vπs是状态s下所有行动a所得到的期望状态值vπ,GPI准则通过最大化vπ的增益来估计策略π在现有状态和行动下的表现,然后通过下式完成策略改进: 式中,在完成策略估计后,我们知道了在策略π下,状态s的价值有多高,但是并不知道是否应该选择新的策略。如果在状态s下由某新策略π′s选择行动所对应的价值为qπs,π′s≥vπs,则新策略π′在该状态优于旧策略π。3将优化后的GPI准则引入到残差神经网络中,将原本“基于时序残差进行网络权值优化”的步骤替换为基于设定的“值函数”进行优化,此时的原本强化学习中的行动策略就转变为神经网络的网络权重,原本强化学习中的状态函数,就转变为残差神经网络的预测值,从而建立基于GPI准则的值函数残差神经网络模型。4将波动率的元知识在基于GPI准则的值函数残差神经网络模型中进行迭代进化,获得关于股指已实现波动率的变化规律。

全文数据:

权利要求:

百度查询: 浙大城市学院 杭州伊园科技有限公司 基于复杂科学的元强化学习对股指已实现波动率的预测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。