Core Concepts
AI 시스템 개발자들이 신뢰할 수 있는 시스템을 개발하고 사용자들이 이를 신뢰하기 위해서는 규제기관의 인센티브가 중요하다.
Abstract
이 연구는 AI 시스템 개발, 사용자, 규제기관 간의 전략적 상호작용을 진화 게임 이론을 통해 모델링하였다.
주요 결과:
규제기관이 효과적으로 규제를 수행할 인센티브가 없다면, 개발자들이 안전한 AI 시스템을 개발하고 사용자들이 이를 신뢰하기 어렵다.
정부가 우수한 규제기관을 보상하거나, 사용자들이 규제기관의 평판을 고려하여 신뢰를 결정하는 경우, 효과적인 규제와 신뢰할 수 있는 AI 시스템 개발이 가능하다.
규제 비용이 높은 경우에는 이러한 메커니즘들도 효과적이지 않다. 따라서 정부는 규제 역량 강화와 규제 비용 감소를 위해 노력해야 한다.
Stats
사용자가 신뢰하고 AI 시스템을 채택하면 큰 혜택(bU)을 얻지만, 개발자가 안전하지 않은 AI를 개발하면 혜택이 감소하거나 손실(εbU)을 볼 수 있다.
안전한 AI 시스템을 개발하려면 개발자에게 추가 비용(cP)이 발생한다.
규제기관이 규제를 시행하려면 추가 비용(cR)이 발생한다.
규제기관이 안전하지 않은 AI 개발자를 적발하면 벌금(v)을 부과할 수 있다.
Quotes
"AI 시스템 개발자들이 신뢰할 수 있는 시스템을 개발하고 사용자들이 이를 신뢰하기 위해서는 규제기관의 인센티브가 중요하다."
"정부가 우수한 규제기관을 보상하거나, 사용자들이 규제기관의 평판을 고려하여 신뢰를 결정하는 경우, 효과적인 규제와 신뢰할 수 있는 AI 시스템 개발이 가능하다."
"규제 비용이 높은 경우에는 이러한 메커니즘들도 효과적이지 않다. 따라서 정부는 규제 역량 강화와 규제 비용 감소를 위해 노력해야 한다."