노엄 촘스키, ChatGPT의 진짜 쓰임에 대해 말하다

ko생성일: 2025. 5. 26.

인공지능과 ChatGPT의 한계, 언어 습득, 윤리적 문제 등 노엄 촘스키가 심도 있게 분석하는 인터뷰.

노엄 촘스키 인터뷰 – C.J. 폴리크로니우와의 대담

2023년 5월 3일 Common Dreams.

인공지능(AI)은 전 세계를 휩쓸고 있습니다. AI는 삶의 모든 영역을 변화시키는 동시에, 사회와 인류의 미래에 대한 중요한 윤리적 문제를 제기하고 있습니다. 특히 소셜 미디어를 장악하고 있는 ChatGPT는 오픈AI가 개발한 AI 챗봇으로, "대형 언어 모델"이라는 기법에 기반하여 인간과 유사한 대화를 생성합니다. 이러한 기술의 잠재적 활용 가능성은 매우 크며, 이에 따라 이미 AI 규제의 필요성을 요구하는 목소리도 나오고 있습니다.

AI가 인간을 뛰어넘을 수 있을까요? 공공에 위협이 될까요? 심지어, AI가 존재론적인 위협이 될 수 있을까요? 세계적인 언어학자이자 최고의 지성인 노엄 촘스키가 이러한 질문들에 답합니다.

C. J. 폴리크로니우: 인공지능(AI)은 1950년대에 학문으로 시작했지만, 지난 수십 년 동안 은행, 보험, 자동차, 음악, 국방 등 다양한 분야에 진출해 왔습니다. 실제로 체스와 같은 일부 영역에서는 AI가 인간 능력을 뛰어넘기도 했는데, 기계가 인간보다 더 똑똑해질 가능성이 있습니까?

노엄 촘스키: 용어를 먼저 명확히 하자면, 여기서 "기계"란 사실상 프로그램(이론)을 의미하며, 이 이론은 컴퓨터가 실행할 수 있습니다. 아주 독특한 방식의 이론이지만, 그 내용은 여기서는 생략하겠습니다.

대략적으로 공학과 과학을 구분할 수 있습니다. 두 영역간의 경계가 명확하진 않지만, 첫 번째 접근으로는 유용합니다. 공학은 쓸모 있는 결과물을 만드는 것에 초점을 두고, 과학은 이해를 추구합니다. 인간의 지능이나 생물의 인지능력이 주제라면, 과학은 이러한 생물학적 시스템을 이해하려고 합니다.

AI의 창시자들–앨런 튜링, 허버트 사이먼, 마빈 민스키 등–은 AI를 신흥 인지과학의 일환, 즉 이해를 위한 과학으로 여겼습니다. 하지만 시간이 흐르면서 공학적 관점이 우위를 점했고, 초기의 과학적 관심은 많이 사라졌습니다. 오늘날에는 이를 흔히 GOFAI(구식, 고전적 AI)로 폄하하는 경향도 있습니다.

질문의 본론으로 돌아가서, 프로그램이 인간의 능력을 뛰어넘을 수 있는가? 여기서 "능력"이란 말을 신중히 써야 합니다. 인간의 퍼포먼스라는 의미로 한정한다면 답은 명확히 "예"입니다. 실제로 오래전부터 존재해왔고, 예를 들면 노트북 계산기는 인간을 훨씬 뛰어넘죠. 체스처럼 폐쇄적(한정적)인 시스템의 경우, 결국 컴퓨터 처리 능력과 충분한 준비 시간만 있다면 프로그램이 그랜드마스터를 이길 수 있음은 1950년대부터 예견된 일이었습니다. IBM의 체스 승리는 사실 이미 예견된 일이었고, 단지 대중적 이벤트였을 뿐입니다. 심지어 생물 중에는 인간의 인지 능력을 본질적으로 뛰어넘는 경우가 많습니다. 제 뒷마당의 사막개미들은 아주 작은 뇌를 갖고 있지만, 항법 능력에 있어서 원리적으로 인간을 능가합니다. 인간이 꼭 최상위라는 만물의 사슬 같은 건 없는 것이죠.

AI의 산출물은 다양한 분야에서 활용되고 있습니다. 심지어 익숙한 단순한 기술도 유용할 수 있죠. 예를 들어, 오토필(자동완성), 실시간 자막 생성, 구글 번역 등입니다. 더 강력한 계산력과 정교한 프로그래밍이 추가된다면, 과학에도 더 유용한 적용 가능성이 큽니다. 실제로 단백질 접힘 연구에 AI가 활용되어 난해한 과학적 문제 해결에 도움이 된 사례도 있습니다.

공학 프로젝트는 유익할 수도, 해로울 수도 있습니다. AI도 마찬가지입니다. 최근 LLM(대형 언어 모델), 챗봇 등은 허위정보, 비방, 오인을 심화하는 도구로 쓰일 수 있습니다. 인공지능 이미지, 음성 복제 등이 결합되면 위협은 더 커집니다. 이런 우려 속에, 수만 명이 넘는 AI 연구자들이 거대 AI 실험 일시 중단을 촉구하기도 했죠.

늘 그렇듯, 기술의 이점과 비용(위험)은 비교해봐야 합니다.

과학적 차원에서 AI를 볼 때는 다른 문제가 생깁니다. 언론에서 지나치게 과장된 주장이 많기 때문에 주의가 필요합니다. 사례별로 가상/실제 예시를 보면서 설명해 보겠습니다.

예를 들어 곤충의 항법(길 찾기)은 놀라운 성취입니다. 곤충학자들은 많은 진전을 이루었지만, 신경생리학적 메커니즘, 진화적 기원 등은 아직도 미스터리입니다. 새, 바다거북 등이 수천 킬로미터를 이동해 본래 자리로 되돌아오는 것 또한 마찬가지입니다.

만약 공학 AI 옹호자인 Tom Jones가 와서 "당신들 연구는 무의미하다. 상업 항공기 조종사들이 똑같은, 더 나은 결과를 항상 내지 않는가!"라고 한다면, 굳이 대답할 필요 없이 웃어넘길 것입니다.

폴리네시아인들의 항해술은 모래바람, 별, 조류, 바람으로 수백 킬로미터 떨어진 지점에 도달하는데, 오랜 연구 대상이었습니다. Tom Jones라면 "암만 해도 소용없다. 해군함도 똑같이 한다"고 할 겁니다. 마찬가지로 웃어넘기면 됩니다.

실제 사례, 언어 습득으로 넘어가 보죠. 최근 연구에서 아기들은 주위의 언어를 생각보다 훨씬 깊이 알고 있음을 보여줍니다. 데이터가 매우 적음에도, 경우에 따라선 전혀 없는 상황에서도 이뤄집니다. 통계적으로 봤을 때, 사용 가능한 데이터는 매우 희박합니다.

여기서 또 Tom Jones가 등장해 "다 소용없다! LLM들이 천문학적 데이터에서 통계 규칙성을 추출해 인간과 유사한 행동을 시뮬레이션해 낸다. 이게 바로 챗봇이다"라고 말합니다.

이 경우는 다릅니다. 실제이며, 많은 사람들이 감탄하고, 실제 결과가 주장만큼 훌륭하지도 않습니다.

이런 점들은 LLM 찬양 분위기의 허구성(위에서 본 가상의 예시처럼 즉각 알아차릴 수 있는 수준)을 드러냅니다. 그러나 문제는 비논리성보다 훨씬 더 심각합니다.

LLM 시스템은 원리적으로 언어, 학습, 인지 등 어떤 정보도 제공할 수 없도록 설계되어 있습니다. 데이터 용량을 아무리 더해도, 시뮬레이션은 더 잘할지는 몰라도, 내부 메커니즘에 대한 이해에는 본질적으로 실패합니다. 그 이유는 이 시스템이 인간이 결코 습득하지 못하는 불가능한 언어에도 똑같이 잘 작동한다는 데 있습니다.

생물학자가 "내 이론에는 존재 가능한 생물, 불가능한 생물 구분이 없고, 그 차이도 말해줄 수 없다"고 하는 격과 같습니다. 역시 웃어넘기게 됩니다.

Tom Jones식 반응은 "아직 세계 모든 언어를 다 조사하지 않았잖나?"입니다. 이는 정상 과학의 완전한 포기입니다. 똑같은 논리로 유전학, 진화론, 모든 생물학을 폐기해야겠지요. 실제로 관찰한 물체만 움직이면 물리학도 폐기해야 하고요.

이와 더불어, 이론을 제안하는 쪽이 그것이 타당하다는 책임을 져야 하는데, 여기서는 불가능한 언어에 실패하는 사례를 보여야 합니다. 그것이 과학적 책임입니다.

정상 과학의 흐름에서 보면, 단 한 예의 언어 습득만으로도 가능한 언어와 불가능한 언어의 구분 등 많은 통찰을 얻을 수 있습니다.

모든 성장·발달, 즉 "학습"은 유기체의 상태에서 시작해 단계적으로 진행됩니다. 언어 습득도 마찬가지입니다. 초기 상태는 인간의 생물학적 언어 능력 자체입니다. 이 능력이 있다는 것은 명백합니다. 외부 데이터는 과정을 촉발·형성시킵니다. 언어 지식(상태)과 외부 데이터를 연구함으로써, 가능한 언어·불가능한 언어의 구분 등, 생득적 언어 능력의 본질에 대한 깊은 결론을 내릴 수 있습니다.

실험을 통해, 언어의 안정된 상태(지식의 획득)는 만 3~4세 무렵이면 거의 완성됨이 밝혀졌습니다. 언어 능력은 인간에게 고유한 종 특성임이 여러 연구로 뒷받침됩니다.

여기서는 생략된 요소–성장과 발달에서 자연법칙의 역할, 예를 들어 언어와 같은 계산 시스템에서의 계산 효율성 등–도 많지만, 위가 본질입니다.

아리스토텔레스가 지적했듯, 지식의 소유(competence)와 사용(performance)은 다릅니다. 언어의 경우, 습득된 상태는 뇌 속에 코딩된 지식의 소유입니다. 내재적 시스템은 무한한 구조화된 표현을 산출합니다.

지식의 사용, 즉 퍼포먼스에는 사고, 계획, 회상 등 언어의 내면적 사용이 포함됩니다. 통계적으로 보면 이것이 언어 사용의 압도적 다수입니다. "내적 언어"라 불리는 것은 사실 음성화 기제가 음소거된 외부 언어의 파편일 뿐, 진짜 내면적 언어 사용과는 거리가 멉니다.

언어 사용의 또 다른 양상은 지각(구문 분석)과 산출(생성)인데, 후자는 오늘날에도 여전히 미스터리입니다.

과학의 주된 목적은 인간 언어 능력의 초기 상태(내부 시스템)와 습득 시 그 변화된 특수 형태를 규명하는 데 있습니다. 내부 시스템이 잘 이해되면, 그것이 퍼포먼스에 어떻게 작용하는지, 언어의 사용에 어떻게 개입하는지 연구할 수 있습니다.

퍼포먼스 데이터는 내부 시스템 연구에 증거가 됩니다. 그러나 아무리 방대한 데이터라도 본질적으로 인식의 한계가 있습니다. 데이터는 정상 행동만 포착하고, 오로지 뇌에 저장된 언어 지식(핵심 연구 대상)은 포착하지 못합니다. 이 내부 시스템은 정상 행동에서 사용되지 않거나 기억 용량 등 언어 외적 문제로 드러나지 않는 무한한 표현도 결정합니다. 실제 데이터에는 의도적으로 언어 규칙을 어기는 경우, 현장 연구자들이 흔히 아는 류의 예외도 많습니다. 그래서 정보 제공자와의 검증(실험적 추출) 등 정제 작업이 중요합니다.

더 나아가면, 언어의 내부 요소·과정은 겉으로 드러나는 현상만 관찰해서는 알 수 없습니다. 효과는 존재하지만, 직접 노출되지 않는 요소도 많죠. 이것이 바로 LLM 방식처럼 관찰된 현상에만 집중하는 접근이 언어 연구의 내부 과정을 파악하는 데 한계를 드러내는 이유입니다.

더 일반적인 과학 흐름에서는, 수천 년간 실험(특히 사고 실험)–현상에서 엄격히 추상화된 절차–을 통해 결론을 냈습니다. 실험은 이론에 근거하며, 무수히 많은 비본질 요소(언어 수행에서처럼)를 걸러냅니다.

진화생물학자 도브잔스키의 "모든 종은 독특하며, 인간은 그 중에서 가장 독특하다"라는 말도 기억해야 합니다. 델포이 신탁이 말했듯, 우리는 인간이 무엇으로 독특한가(주로 언어와 사고)를 연구해야 하며, 일상적이지 않은 행동이나 예술·과학의 창의에서 이를 발견합니다.

마지막으로, 1세기 넘게 사회를 지배하는 반과학 기업 홍보의 폐해(나오미 오레스케스 등 연구)가 있습니다. 납, 담배, 석면, 화석연료 기업 등이 과학을 직접 반박하기 보다는 의심과 불신을 조장했고, 지금은 인간 문명 파괴의 길로 가고 있습니다. 지식인 사회에서는 포스트모던 과학 비판(브릭몽, 소칼이 해체)이 이런 소외를 생산합니다.

Tom Jones와 그의 무비판적 추종자들이 이와 같은 위험한 경향에 일조하고 있는지, 무례하겠지만 물어보는 것도 공정할 것입니다.

CJP: ChatGPT는 자연어 기반 챗봇으로, AI를 사용해 인간과 유사한 대화를 합니다. 최근 뉴욕타임스 기고에서 두 분과 함께 새로운 챗봇이 인간의 언어 역량을 결코 따라잡을 수 없다고 하셨죠. 하지만 미래의 AI 혁신이 인간 능력에 필적하거나 오히려 뛰어넘는 프로젝트를 만들 가능성은 없을까요?

NC: 그 글의 실제 저자는 제프리 와투멀로, 굉장히 뛰어난 수학자-언어학자-철학자입니다. 저는 동의했지만 저자는 아니죠.

챗봇이 원천적으로 인간 언어 역량을 따라잡을 수 없는 것은 위에서 충분히 설명한 이유 때문입니다. 설계 자체에 가능한 언어와 불가능한 언어를 구별할 수 있는 최소 기준이 없기 때문이죠. 따라서 이 방식의 AI가 미래에 혁신을 거듭해도 이 한계는 극복할 수 없습니다. 하지만 인간의 "퍼포먼스"(행동 능력)적 의미라면, AI 프로젝트가 인간을 능가할 수 있음은 이미 증명됐습니다. 자동 계산기도 그렇고, 심지어 곤충의 항법 능력도 언어적 역량으로 인간을 능가합니다.

CJP: 앞서 언급하신 기사에서 최근의 AI 프로젝트가 인간의 도덕적 능력을 가지지 못했다는 점도 지적하셨습니다. 이 당연한 사실이 오히려 AI 로봇이 인간에게 더 큰 위협이 된다고 볼 여지는 없을까요?

NC: 넓은 의미의 "도덕적 역량"을 생각한다면 이는 분명한 사실입니다. 적절히 통제하지 않으면 AI 공학은 심각한 위협이 될 수 있습니다. 예컨대 환자 진료가 자동화된다면, 인간의 판단으로 극복 가능한 오류 때문에 끔찍한 사태가 벌어질 수 있습니다. 또는 미사일 방어 시스템에서 인간 평가자가 빠진다면, 역사적 사례에서 알 수 있듯, 인류 문명의 종말을 초래할 수 있습니다.

CJP: 유럽 규제·법 집행기관들은 ChatGPT의 확산에 우려를 표하며, EU는 위험도에 따라 AI 규제 법안을 추진 중입니다. ChatGPT가 심각한 공공 위협이란 견해에 동의하십니까? 또한, 안전장치가 마련될 때까지 AI 개발을 중단하는 것이 현실적으로 가능하다 보십니까?

NC: 첨단 기술이 야기하는 위협을 통제하고자 하는 노력을 충분히 공감합니다. 다만, 실제로 그렇게 할 수 있을지는 회의적입니다. 이미 AI라는 지니는 병에서 나왔고, 악의적 행위자–조직이든 개인이든–가 안전장치를 우회하는 방법을 찾을 수 있다고 생각합니다. 그렇다고 해서 시도하지 말라는 의미는 아니며, 경계심을 갖고 최대한 노력해야 합니다.