量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf

  • 上传者:0*****
  • 时间:2025/05/07
  • 热度:125
  • 0人点赞
  • 举报

量化专题报告:深度风险模型与强化风险模型的构建及组合优化。传统风险模型在市场冲击下解释度降低,深度风险模型(Deep Risk Model)可以改善这一问题。传统风险模型(如 Barra 模型)在市场冲击下解 释度下降,难以捕捉市场中的非线性关系。通过构建基于图注意力网络 (GAT)和门控循环单元(GRU)的深度风险模型,日度收益回归解释度较传 统模型提升 4%至 33%,2024 年 9 月等市场波动时期提升尤为显著。

深度风险模型用于组合优化对深度学习因子与基本面因子均有提升。对于 深度学习 alpha 因子 Meta_Master,深度风险模型相较传统风险模型在沪深 300 指数增强组合信息比率持平,中证 500,中证 1000 指数增强组合信息比率 提升 0.2 左右。对于基本面价值因子 AEG,深度风险模型在沪深 300 指数增强 组合信息比率持平,中证 500 指数增强组合信息比率提升 0.6,中证 1000 指数 增强组合信息比率提升 0.8,效果明显。

强化风险模型(Reinforcement Risk Model)可进一步提升解释度以及 组合优化表现。引入强化学习 PPO 算法动态优化风险因子生成,解决深度风险 模型因重新训练导致的因子含义不一致等问题,解释度进一步提升至 35.3%, 与深度学习 alpha 因子相关性有所降低,同时因子在时序上更加稳定,适合实 际应用与生产。在组合优化中,Meta_Master 强化学习沪深 300 指数增强组合 年化超额收益 9.2%,信息比率 1.89,较深度风险模型提升 0.2 左右;中证 500 指数增强组合年化超额收益 11.7%信息比率 2.73,较深度风险模型提升 0.2 左 右;中证 1000 指数增强组合年化超额收益 13.4%,信息比率 2.58,较深度风 险模型下降 0.2 左右。

LinSAT 网络支持在深度神经网络中进行组合优化,端到端输出组合持仓, 收益弹性显著提升。在组合优化中,端到端的 LinSAT 网络直接输出满足约束的 持仓权重,我们利用 Meta_Master 模型中最后一层的 Encoder 与 LinSAT 网络 进行拼接,模型输出为每只股票的持仓权重,并在 LinSAT 网络中加入行业,市 值,及深度风格暴露约束以及个股权重约束(考虑成分股),并在沪深 300、中 证 500、中证 1000 指数成分股中分别训练,最终 3 个指数增强策略年化超额收 益分别达到 13.0%、16.6%、17.1%,信息比率最高达 3.27,收益弹性提升, 跟踪误差略微放大,信息比率显著提升,显著优于之前所有方法。

强化学习进行多目标学习同时输出风险因子与组合持仓,效果一般。强化 学习同样可以将 alpha 信号与风险因子共同纳入考量,构建投资组合。我们延 用 PPO 算法,重新定义 CMDP 问题。在输入端加入 Meta_Master 模型 Encoder 的输出部分,通过双头网络输出当日的股票持仓与风险因子,在奖励 函数中加入收益奖励部分,并约束风险因子与组合持仓的稳定性以及风格暴露 等因素, 直接取持仓动作作为交易信号,超额收益与信息比率均有下降,效果 不理想。

1页 / 共35
量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第1页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第2页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第3页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第4页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第5页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第6页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第7页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第8页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第9页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第10页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第11页 量化专题报告:深度风险模型与强化风险模型的构建及组合优化.pdf第12页
  • 格式:pdf
  • 大小:2.3M
  • 页数:35
  • 价格: 5积分
下载 获取积分

免责声明:本文 / 资料由用户个人上传,平台仅提供信息存储服务,如有侵权请联系删除。

留下你的观点
  • 相关标签
  • 相关专题
热门下载
  • 全部热门
  • 本年热门
  • 本季热门
分享至