기계 학습 모델에는 보안, 프라이버시 및 공정성에 대한 위험이 존재하며, 이를 완화하기 위한 다양한 방어 기술이 제안되고 있다. 그러나 특정 위험에 대한 방어 기술이 효과적일 때, 다른 위험에 대한 취약성이 증가하거나 감소할 수 있다. 이러한 예기치 않은 상호작용을 체계적으로 이해하고 설명할 수 있는 통합적인 프레임워크가 필요하다.