Keskeiset käsitteet
EU AI 법에 명시된 고위험 AI 시스템의 안전성, 투명성, 신뢰성 요구사항을 충족하기 위한 체계적인 방법론을 제안한다.
Tiivistelmä
이 논문은 EU AI 법에 대한 체계적인 접근법을 제시한다.
첫째, AI 시스템의 품질 모델을 확장하여 EU AI 법의 관련 속성을 포함한다. 이를 통해 기존 품질 모델이 다루지 않는 투명성, 인간 감독, 윤리적 무결성 등의 속성을 다룰 수 있다.
둘째, EU AI 법의 요구사항을 확장된 품질 모델의 속성에 체계적으로 매핑한다. 이를 통해 법적 요구사항을 측정 가능한 특성으로 구체화할 수 있다.
셋째, 복잡한 공급망 환경에서 이해관계자 간 계약 기반 접근법을 제안한다. 이를 통해 이해관계자 수준에서 품질 속성에 대한 기술적 요구사항을 도출할 수 있다.
마지막으로, 자동차 공급망 사례를 통해 제안한 방법론의 적용 가능성을 보여준다.
Tilastot
안전 관련 AI 시스템의 실패로 인해 심각한 피해나 인명 손실이 발생할 수 있다.
기존 안전 표준은 AI 시스템의 투명성, 인간 감독 등 EU AI 법의 요구사항을 다루지 않는다.
복잡한 공급망 환경에서 EU AI 법 준수 입증이 어려운 과제이다.
Lainaukset
"안전 관련 AI 시스템의 실패로 인해 심각한 피해나 인명 손실이 발생할 수 있다."
"기존 안전 표준은 AI 시스템의 투명성, 인간 감독 등 EU AI 법의 요구사항을 다루지 않는다."
"복잡한 공급망 환경에서 EU AI 법 준수 입증이 어려운 과제이다."