70년간의 AI 연구에서 얻은 가장 중요한 교훈은, 엄청난 계산 자원을 활용하는 일반적인 방법이 결국 가장 효과적이라는 것이다. 인간 지식에 의존하는 접근방식은 초기에는 유용할 수 있지만, 장기적으로는 계산 능력을 활용하는 것이 더 큰 발전을 이끈다는 사실을 다양한 분야의 사례를 통해 설명한다.
리치 서튼(Rich Sutton)
2019년 3월 13일
70년에 걸친 AI 연구에서 얻을 수 있는 가장 큰 교훈은, 계산(computation)을 최대한 활용하는 일반적인 방법(general methods)이 궁극적으로 가장 효과적이라는 점이며, 그 차이는 매우 크다는 것이다. 그 근본적인 이유는 무어의 법칙(Moore's Law), 구체적으로는 계산 단위당 비용이 계속해서 기하급수적으로 감소한다는 법칙 때문이다. 대부분의 AI 연구는 에이전트가 사용할 수 있는 계산량이 고정되어 있다는 가정 하에 이루어졌었다(이 상황에서는 인간의 지식을 활용하는 것이 성능 향상의 거의 유일한 방법이기 때문이다). 하지만, 보통의 연구 프로젝트 기간보다 약간 더 긴 시간 동안에는 반드시 더 엄청난 계산 자원이 사용 가능하게 된다.
연구자들은 단기적으로 가시적 개선을 이루기 위해 자신들이 가진 도메인 지식을 최대한 활용하고자 했지만, 장기적으로 중요했던 것은 오직 계산 자원을 얼마나 활용하는가였다. 이 두 접근법이 반드시 상충하는 것은 아니지만, 실제로는 시간이 한정되어 있으므로, 한 쪽에 더 투자하면 다른 쪽에 덜 투자하게 된다. 또한 연구자의 심리에 따라 한 방식에 집착하게 되기도 한다. 인간 지식 기반 접근법은, 일반적인 계산 활용법을 적용하기 어렵게 방법을 복잡하게 만드는 경향이 있다.
AI 연구자들이 이 씁쓸한 교훈을 뒤늦게 깨달은 사례는 많으며, 대표적인 몇 가지를 되짚어 보는 것이 유익하다.
1997년, 세계 챔피언 카스파로프를 꺾은 체스 프로그램은 막대한 연산량을 활용한 대규모, 심층 수색(search) 방식에 기반했다. 당시 많은 컴퓨터 체스 연구자들은 체스라는 게임의 구조에 대한 인간의 이해를 활용하려 했기에, 이러한 방식에 실망감을 표했다. 하지만 단순한 구조의 탐색 기반 접근이 특수 하드웨어, 소프트웨어와 결합되어 훨씬 더 효과적임이 드러나자, 인간 지식 기반 연구자들은 "무식한(brute-force) 탐색이 이번엔 우세했다 해도, 이것은 일반적인 전략이 아니며, 무엇보다 인간이 체스를 두는 방식도 아니"라고 하며 패배를 인정하지 못했다. 이들은 인간 기반 방법이 더 우수하길 원했으나, 결과는 달랐다.
비슷한 연구의 진보 양상은 컴퓨터 바둑에도 나타났으나, 20년 정도 더 늦게 진행됐다. 초창기에는 인간의 지식이나 바둑만의 특수한 요소를 최대한 활용해 탐색을 피하려는 노력이 컸으나, 대규모 탐색이 효과적으로 도입되자 이러한 모든 시도는 무의미해지거나 오히려 역효과를 내기 일쑤였다. 자기 대국(self-play)을 이용한 가치 함수(value function) 학습도 중요한 단계였다(1997년 체스 챔피언을 이긴 프로그램에는 학습이 크게 기여하지 않았으나, 다른 많은 게임과 바둑에서는 학습이 큰 역할을 했다). 자기 대국과 학습 전반은 탐색과 유사하게 엄청난 계산 자원을 활용할 수 있게 한다.
탐색과 학습은 AI 연구에서 방대한 계산력을 활용하는 데 가장 중요한 두 가지 방법론이다. 체스와 바둑에서 모두, 연구 초기에는 인간의 이해를 최대한 활용해 탐색의 필요성을 줄이려 했지만, 결국은 탐색과 학습을 적극적으로 받아들여야 훨씬 큰 성공을 거둘 수 있었다.
음성 인식 분야에서는 1970년대 DARPA 후원 경진대회가 있었다. 이 때는 단어, 음소, 인간 발성 기관 등에 대한 인간 지식을 활용한 다양한 특수 기법들이 있었고, 반대편에는 더 많은 계산을 수행하는 통계적 접근법(HMM, 히든 마르코프 모델 등)이 등장했다. 결국 통계적 계산 방식이 인간 지식 기반 방식을 이겼고, 이는 수십 년에 걸쳐 자연어 처리 전체에서도 통계와 계산이 중심이 되는 결정적 변화로 이어졌다. 최근 심층 학습(딥러닝)이 음성 인식에서 비약적으로 성능을 올리는 것도 같은 흐름에 있다. 딥러닝은 인간 지식에 더 적게 의존하고, 훨씬 많은 계산과 대규모 데이터 학습을 통해 비약적인 성능을 달성한다. 게임 분야와 마찬가지로, 연구자들은 늘 본인 사고 방식과 흡사하게 동작하는 시스템을 만들고자 했으나, 무어의 법칙에 따라 막대한 계산이 가능해지자 이런 인간 중심적 접근은 결국 역효과였으며, 연구자 시간의 낭비로 판명되었다.
컴퓨터 비전에서도 비슷한 패턴이 있었다. 초창기에는 이미지에서 경계(edge)를 탐색하거나, 일반화된 실린더 모델, SIFT 특징 등 인간적인 해석 중심으로 접근했다. 이제는 이런 오래된 접근법은 모두 버려졌다. 현대의 딥러닝 신경망은 컨볼루션(합성곱)과 일부 변이성 개념만을 이용해 훨씬 뛰어난 성능을 내고 있다.
이것이 바로 큰 교훈이다. AI 분야는 아직도 똑같은 실수를 반복하고 있다. 이를 인식하고, 효과적으로 저항하려면 왜 이런 실수가 계속 반복되는지 그 유혹을 이해해야 한다. 인간이 생각하는 방식을 시스템에 내장시키는 것이 장기적으로 효과 없다는 쓴 교훈을 반드시 배워야 한다. 쓴 교훈이란, 1) AI 연구자들이 종종 자신들의 지식과 경험을 에이전트에 집어넣으려 시도했다는 사실, 2) 이런 노력들이 단기적으로는 도움이 되고 연구자 개인에겐 만족을 준다는 점, 3) 하지만 장기적으로는 한계에 부딪히며 더 이상의 발전을 억제하게 된다는 점, 4) 결국 결정적 진전은 탐색과 학습을 통한 대규모 계산 활용이라는 반대의 접근법으로 이뤄진다는 역사적 관찰에 기초한다. 이러한 성공은 인간 중심 접근법에 대한 일종의 배신이기에, 종종 완전히 받아들여지지 못하거나 씁쓸하게 여겨진다.
쓴 교훈에서 반드시 배워야 할 한 가지는, 막대한 계산 자원이 가능해졌을 때도 계속 확장 가능한 범용 방법론이 엄청난 힘을 가진다는 것이다. 탐색(search)과 학습(learning)이라는 두 방법이 바로 이런 식으로 임의적으로 확장 가능한 것으로 보인다.
이 교훈이 남기는 두 번째 요점은, 실제 마음(mind)의 내용은 엄청나게 복잡하며, 되돌릴 수 없을 정도로 복잡하다는 점이다. 우리는 공간, 객체, 다중 에이전트, 대칭성 등에 대해 단순하게 생각하려는 시도를 멈춰야 한다. 이런 모든 것들은 외부 세계의 임의적이고 본질적으로 복잡한 일부일 뿐이다. 우리는 이 복잡한 내용을 시스템에 직접 집어넣으려 해서는 안 된다. 대신, 이런 임의적 복잡성을 발견하고 포착할 수 있는 메타-방법(meta-methods)만을 내장해야 한다. 이런 메타-방법들의 핵심은 좋은 근사치를 찾아내는 능력이지만, 그 근사치 탐색은 우리가 직접 하는 것이 아니라, 우리의 방법에 의해 자동으로 이루어져야 한다. 우리가 바라는 AI는, 우리가 발견한 지식을 내장한 인공물이 아니라, 우리가 발견하는 것처럼 스스로 발견할 수 있는 존재여야 한다. 우리의 발견을 내장시키면, 참된 "발견 과정"이 어떻게 진행되는지 오히려 보지 못하게 만든다.