이 논문은 비차별법과 알고리즘 공정성 간의 현재 불일치를 설명하고, EU의 AI 법이 이 두 영역을 통합하는 데 중요한 역할을 할 수 있다고 주장한다.
법적 맥락: 비차별법은 알고리즘 차별 문제를 해결하는 데 한계가 있다. 개인 소송에 의존하는 비차별법 체계에서는 개인이 차별을 인식하고 입증하기 어렵다. AI 시스템의 불투명성으로 인해 이 문제가 더욱 악화된다.
기술적 맥락: 알고리즘 공정성 기술은 이러한 격차를 메우고자 한다. 다양한 공정성 지표와 편향 탐지 및 완화 기술을 개발했지만, 규범적 문제와 집행 문제에 직면하고 있다.
AI 법의 영향: AI 법은 비차별법의 요구사항을 AI 시스템 개발 단계에 구현하도록 요구함으로써 이 두 영역의 격차를 해소할 수 있다. 또한 AI 법은 공정성 고려사항을 위한 데이터 처리를 허용하여 편향 탐지와 수정을 가능하게 한다.
실용적 과제: 1) 어떤 공정성 지표가 "적절한"지 정의하기, 2) 어떤 편향이 "차별로 이어질 가능성이 있는지" 판단하기 등의 과제가 남아 있다. 이를 해결하기 위해서는 법학과 컴퓨터 과학 분야의 협력이 필요하다.
A otro idioma
del contenido fuente
arxiv.org
Consultas más profundas