본 연구 논문은 사회 전반에 걸쳐 빠르게 확산되고 있는 언어 기반 AI 시스템의 잠재적 위험을 완화하고 책임감 있는 AI 활용을 위한 정부의 역할을 집중적으로 다루고 있습니다.
연구진은 AI 시스템의 사회적 영향을 정확하게 평가하고 부정적인 결과를 최소화하기 위해서는 실제 사용 데이터에 기반한 사후 모니터링이 필수적임을 강조합니다. 특히, 모델 통합 및 사용, 애플리케이션 사용, 사고 및 영향 정보를 연동하는 "연동형 사후 모니터링"의 필요성을 제기하며, 이를 통해 AI 사용과 그 영향 사이의 인과 관계를 명확히 밝힐 수 있다고 주장합니다.
논문에서는 AI 시스템의 사용 및 영향에 대한 정보 부족 문제를 지적하며, 이러한 정보 불균형을 해소하는 데 정부가 중요한 역할을 해야 한다고 강조합니다. 특히, 정부는 정보 공유를 촉진하고 이를 위험 관리와 연계하여 연동형 모니터링을 가능하게 하는 주체로서, AI 위험 관리 개선에 중추적인 역할을 수행할 수 있다고 주장합니다.
연구진은 정부 및 AI 안전 기관을 위해 다음과 같은 구체적인 정책 권고안을 제시합니다.
사고 모니터링 및 보고 우선순위 설정: AI 시스템 사용과 인과 관계가 있는 사고 보고 및 모니터링 시스템 구축을 통해 AI 위험 관리 역량을 강화해야 합니다. 정부는 의무 보고 제도 도입, 자발적 보고 장려, 후속 조치를 위한 자원 및 권한 제공 등을 통해 이러한 프로세스를 주도할 수 있습니다.
사후 정보 수집 메커니즘 구축: 정부는 AI 기업과의 자발적 협력, 법률에 따른 의무 보고 요구, 제3자 연구 및 독립적인 모니터링 지원 등 다양한 전략을 통해 사후 정보를 수집할 수 있습니다. 각 전략의 효과는 규제 및 산업 환경, 모니터링 대상 AI 시스템의 특성에 따라 달라질 수 있습니다.
초기 데이터 포인트 요청 및 분석 역량 구축: 정부는 AI 기업에 특정 데이터 포인트 제공을 요구하고 이를 분석하여 AI 위험 관리에 활용할 수 있습니다. 논문에서는 사용자 기반 규모, 부문별 사용량, 위치별 사용량, 모델 호스트 가동 중단 시간, 의도된 사용 사례, 도구 사용 정도, 오용 통계, 사고 모니터링 및 보고 등의 초기 데이터 포인트를 제시합니다.
가시성을 높이는 기술적 거버넌스 방법 지원: AI 생성 콘텐츠의 확산에 대응하여 콘텐츠 출처 및 워터마킹과 같은 가시성 구축 기술 도입을 장려하고, 언어 기반 AI 에이전트의 행동 가시성 확보를 위한 표준 개발을 지원해야 합니다.
본 논문은 정부 주도의 연동형 사후 모니터링 시스템 구축의 중요성을 강조하며, 이를 위한 구체적인 정책 권고안을 제시합니다. 연구진은 다양한 사후 모니터링 접근 방식의 효과를 평가하고 개인 정보 보호 기술을 사용하여 더 많은 사후 데이터 세트를 구축하는 등의 후속 연구를 통해 AI 위험 관리 및 책임감 있는 AI 활용을 위한 노력을 지속해야 한다고 제언합니다.
To Another Language
from source content
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Merlin Stein... lúc arxiv.org 10-08-2024
https://arxiv.org/pdf/2410.04931.pdfYêu cầu sâu hơn