1950년대부터 1980년대 중반까지의 초기 인공지능 연구(Symbolic AI)는 다양한 이론적 접근법이 병존하는 "프로토과학" 단계였다. 연구자들은 인간의 사고 과정을 모방하는 방식으로 인공지능을 구현하고자 했지만, 컴퓨팅 기술의 한계와 이론적 합의 부재로 인해 실질적인 진전을 이루지 못했다.
1980년대 후반, 미국 국방고등연구계획국(DARPA)은 인공지능 연구에 새로운 평가 체계인 "벤치마킹"을 도입했다. 이는 특정 과제에 대한 예측 정확도를 단일 지표로 삼아 연구 성과를 평가하는 방식이었다. 벤치마킹은 연구자들의 자율성을 제한하는 대신 통계적 기계학습 기법의 발전을 촉진했다.
2010년대 이후, 대규모 데이터와 컴퓨팅 자원의 활용이 가능해지면서 딥러닝 기술이 벤치마킹 성과에서 두드러지게 앞서나가게 되었다. 이에 따라 인공지능 연구는 딥러닝 중심의 "인지적 모노컬처"로 전환되었다. 이는 다양한 접근법의 탐색을 저해하고 설명 가능성, 윤리성, 환경 효율성 등의 문제를 야기했다.
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Bernard J. K... um arxiv.org 04-11-2024
https://arxiv.org/pdf/2404.06647.pdfTiefere Fragen