참고문헌: Peng, X., Zhou, X., Xiao, B., & Wu, Y. (2024). A Risk Sensitive Contract-unified Reinforcement Learning Approach for Option Hedging. arXiv preprint arXiv:2411.09659v1.
연구 목적: 본 연구는 옵션 매도자의 최종 손익 (P&L) 분포의 테일 리스크를 최소화하는 데 중점을 둔 새로운 리스크 감지 강화 학습 접근 방식을 제안하여 기존 옵션 헤징 방법론의 문제점을 해결하고자 합니다.
방법론: 본 연구에서는 계약 통합 강화 학습 (CU-RL)이라는 새로운 동적 헤징 전략을 제안합니다. 이는 심층 강화 학습을 사용하여 다양한 옵션의 계약 조건과 초기 상태(예: 초기 주식 가격, 행사 가격, 만기, 초기 현금 및 주식 포지션)에 적용 가능한 통합 헤징 전략을 학습합니다. CU-RL 접근 방식은 최종 헤징 P&L의 조건부 VaR을 추정하기 위해 신경망을 사용하여 최종 헤징 P&L의 CVaR을 최소화하는 동시에 평균을 최대화합니다. 또한 특정 옵션에 대한 최적 헤징 전략을 찾는 CU-RL의 계약별 버전인 계약별 강화 학습 (CS-RL) 알고리즘도 제공합니다.
주요 결과:
본 연구에서는 Black-Scholes 모델과 Heston 및 Nandi (2000)에서 제안한 헤비 테일 GARCH 모델이라는 두 가지 파라메트릭 모델에서 시뮬레이션된 주식 및 옵션 데이터를 사용하여 CS-RL 및 CU-RL을 검증하고, 제안된 방법이 델타 헤징 방법보다 테일 리스크 제어 및 수익 창출 측면에서 더 나은 성과를 보인다는 것을 발견했습니다.
결론: 본 연구에서 제안된 CU-RL 접근 방식은 기존 옵션 헤징 방법론의 문제점을 해결하는 데 효과적인 것으로 나타났습니다. 특히, 계약 통합, 데이터 기반, 테일 리스크 제어 및 시장 마찰 통합과 같은 장점을 가지고 있어 실제 옵션 헤징에 유용하게 적용될 수 있을 것으로 기대됩니다.
의의: 본 연구는 총 헤징 P&L의 평균 및 테일 리스크 측면에서 다양한 헤징 전략의 성과에 대한 포괄적인 실증 연구를 수행한 최초의 연구입니다. 모델이 없는 환경에서 2008년 1월 1일부터 2017년 12월 31일까지 S&P 500 지수 옵션의 시장 데이터를 사용하여 CU-RL을 테스트했습니다. CU-RL은 대부분의 실험에서 통계적으로 유의미한 이점을 보여주었으며, 이는 최종 P&L의 평균이 상당히 높고 CU-RL의 목적 함수에 명시된 97.5% 수준에서 VaR 및 CVaR로 측정한 테일 리스크가 상당히 작다는 것을 보여줍니다.
제한점 및 향후 연구:
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania