이 논문은 신뢰할 수 있는 인공지능(TAI)에 대한 일련의 연구 중 첫 번째 편으로, 다양한 TAI 정의와 그 확장된 개념들을 검토한다. 사회에서 존중되는 원칙을 고려할 때 TAI는 다양한 속성이나 주관적 개념으로 특징지어지는데, 이는 규제 및 엔지니어링 맥락에서 혼란을 야기했다. 저자들은 '책임 있는 AI' 또는 '윤리적 AI'라는 용어를 TAI의 대체어로 사용하는 것을 반대한다. 대신 이러한 모호한 용어를 모두 버리고 TAI의 주관성과 복잡성을 고려하여 보편적인 프레임워크를 개발하는 것이 불가능하다고 주장한다. 대신 공정성, 편향성, 위험, 보안, 설명 가능성, 신뢰성 등과 같은 핵심 속성과 특성을 다루는 접근법을 옹호한다.
또한 저자들은 유럽연합, 중국, 미국의 AI 규제 동향을 살펴보고, 지정학적 및 지리적 이유로 인한 AI 규제의 차이가 다국적 기업에 추가적인 과제를 제시한다고 지적한다. 저자들은 AI 규제와 TAI의 핵심 원칙으로 위험을 제시하며, EU-AI법에 따라 기관들은 AI 제품의 위험 수준을 평가하고 그에 따라 대응해야 한다고 설명한다.
또한 TAI 구현의 다양한 방식과 엔드-투-엔드 프로세스에 참여하는 다기능 팀에 대해 비교 분석한다. 이를 통해 TAI를 강제하는 접근법은 효율성과 민첩성을 저해한다는 점을 지적한다. 이를 해결하기 위해 저자들은 'Set-Formalize-Measure-Act(SFMA)' 프레임워크를 제안한다. 이 솔루션은 TAI 인식 지표, TAI 동인, 이해관계자, 비즈니스/법적 요구사항을 실제 벤치마크 또는 테스트로 전환하는 것의 중요성을 강조한다.
마지막으로 강력한 AI 모델에 대한 공포로 인한 과도한 규제는 TAI에도 해를 끼칠 수 있다고 지적한다. GitHub 사용자 활동 데이터에 따르면 2023년 AI 오픈소스 프로젝트가 기여자 수 기준 상위 프로젝트로 부상했다. AI와 TAI의 혁신을 가능하게 하려면 오픈소스 커뮤니티의 독립적인 기여가 관건이다.
翻譯成其他語言
從原文內容
arxiv.org
深入探究