코리 닥터로우가 워싱턴 대학교 강연 원고를 바탕으로 AI 거품과 독점, 노동, 저작권, 그리고 좋은 AI 비판자가 되는 법을 다루고, 함께 읽을 기사와 과거 링크, 출간·예정 도서, 출연 소식, 연재 정보 등을 정리한 글

어젯밤, 나는 워싱턴 대학교 계산 신경과학 센터가 주관하는 "신경과학, AI, 그리고 사회" 강연 시리즈에서 연설을 했다. 제목은 "역(逆) 켄타우로스의 AI 비판 가이드(The Reverse Centaur’s Guide to Criticizing AI)"였고, 내 차기 저서 『The Reverse Centaur’s Guide to Life After AI』(내년 6월 Farrar, Straus and Giroux 출간 예정)의 원고를 바탕으로 한 것이다:
강연은 매진이었지만, 여기 그 강연 전문을 공개한다. 이런 기회를 준 워싱턴 대학교에, 그리고 시애틀에서의 멋진 시간에 매우 감사한다!
==
나는 SF 작가다. 내 일은 현재의 기술·사회적 구조를 바탕으로 미래를 배경으로 한 우화를 지어내는 것이다. 어떤 장치가 무엇을 하는지 뿐 아니라, 그 장치가 누구를 위해 무엇을 하는지, 그리고 누구에게 무엇을 하는지를 캐묻는 게 내 일이다.
내가 하지 않는 일은 미래를 예측하는 것이다. 아무도 미래를 예측할 수 없다. 다행인 일이다. 미래가 예측 가능하다는 건, 우리가 무엇을 해도 미래를 바꿀 수 없다는 뜻이기 때문이다. 미래가 이미 깔린 선로 위로 달려오고 있어서 조종도, 방향 전환도 안 된다는 뜻이다.
세상에, 얼마나 끔찍한 생각인가!
하지만 이 둘의 차이를 이해하지 못하는 사람이 많다. 그들은 SF 작가를 예언자, 점쟁이로 여긴다. 불행히도, 내 동료 중 일부는 스스로 실제로 "미래를 본다"고 믿는 착각에 빠져 있기도 하다.
하지만 자신이 미래를 쓰고 있다고 착각하는 SF 작가 한 명당, _미래를 읽고 있다_고 믿는 SF 팬이 백 명쯤 된다. 그리고 그들 중 절망스럽게도 많은 수가 AI 브로(자칭 AI 혁신가)로 변신했다. 이 녀석들은 자기네 매운맛 자동완성기가 언젠가 깨어나 우리 모두를 클립으로 바꿔버릴 그날 이야기를 멈추질 않아서, 수많은 헷갈린 기자와 컨퍼런스 조직자들이 내게도 AI의 미래에 대해 코멘트해 달라며 달려든다.
이건 내가 아주 강력히 저항해 온 일이다. 나는 크립토(암호화폐)가 얼마나 멍청한지, 왜 그렇게 생각하는지를 2년 동안이나 끈질기게, 차분히 설명하느라 인생을 낭비했기 때문이다. 그동안 암호화폐 컬트 신도들에게 지칠 줄 모르게 두들겨 맞았다. 처음엔 내가 크립토를 이해 못 해서 그렇다고 우겼고, 내가 크립토를 잘 이해하고 있음을 분명히 하자, 이번엔 내가 누군가에게 돈 받고 까는 앞잡이라고 우겼다.
이건 사이언톨로지 교인들과 논쟁할 때 실제로 벌어지는 일과 똑같다. 인생은 너무, 너무 짧다.
그래서 나는 또다시 그런 수렁으로 끌려 들어가고 싶지 않았다. 한편으로는, 나는 AI가 그다지 중요한 기술이라고 생각하지 않는다. 다른 한편으로는, AI에 대해 잘못된 점, 그리고 틀리지 않은 점에 대해 내가 가진 생각들이 매우 미묘하고 복잡해서, 이걸 설명하려면 시간이 아주 오래 걸리기 때문이다.
하지만 사람들은 계속 물어봤고, 그래서 나는 늘 하던 대로 했다. 책을 썼다.
여름 내내 나는 AI에 관한 내 생각을 책으로 썼다. 사실 이 책은 AI에 대한 내 생각이라기보다, AI 비판에 대한 내 생각, 더 구체적으로는 어떻게 해야 좋은 AI 비평가가 될 수 있는지에 관한 것이다. 여기서 말하는 "좋은"이란, AI가 끼치는 피해 중 가장 파괴적인 부분에 비판이 최대한의 타격을 입히는 비평가라는 뜻이다. 나는 이 책의 제목을 『The Reverse Centaur's Guide to Life After AI』라고 붙였고, Farrar, Straus and Giroux가 2026년 6월에 출간할 예정이다.
하지만 그때까지 기다릴 필요는 없다. 오늘 이 자리에서 앞으로 40분 동안 이 책의 논지를 몽땅 풀어놓을 테니까. 아주 빨리 말할 것이다.
먼저, 역(逆) 켄타우로스가 무엇인지부터 설명하자. 자동화 이론에서 "켄타우로스"는 기계의 도움을 받는 사람을 뜻한다. 인간의 머리가 지치지 않는 로봇 몸통을 타고 다니는 셈이다. 자동차를 운전하는 것도 켄타우로스가 되는 것이고, 자동완성을 쓰는 것도 마찬가지다.
그러니, 당연히 역(逆) 켄타우로스는 기계의 머리가 인간의 몸에 얹힌 꼴이다. 돌보지 않는 기계를 위해 봉사하는, 흐물흐물한 고기 부속품으로 전락한 사람이다.
예를 들어 아마존 배송 기사. 기사들은 AI 카메라로 둘러싸인 운전석에 앉아 있다. 카메라는 기사의 눈동자를 감시하고, 금지된 방향을 보면 점수를 깎는다. 노래 부르는 것도 금지라 입을 감시하고, 할당량을 채우지 못하면 상사에게 일러바친다.
기사가 그 밴에 타 있는 이유는, 밴 스스로는 운전을 할 수 없고 길가에서 당신 집 현관까지 소포를 가져다줄 수 없기 때문이다. 기사는 밴을 위한 주변기기이고, 밴이 기사를 모는 것이다. 그것도 초인적인 속도와 초인적인 지구력을 요구하면서 말이다. 하지만 기사는 인간이기 때문에, 밴은 기사를 _소모_한다. 단순히 이용하는 게 아니라, 다 쓸 때까지 짜낸다.
켄타우로스가 되는 건 분명 기분 좋은 일이다. 반대로, 역 켄타우로스가 되는 건 끔찍하다. 켄타우로스처럼 쓸 수 있는 AI 도구는 많지만, 내 논지는 이 도구들이 역 켄타우로스를 만들기 위해, 그걸 목적으로 설계되고 자금을 받는다는 것이다. 우리 누구도 그런 존재가 되길 원하지 않는데 말이다.
하지만 앞에서 말했듯, SF 작가의 일은 장치가 무엇을 하는지 생각하는 데서 멈추지 않는다. 그 장치가 누구를 위해 무엇을 하는지, 그리고 누구에게 무엇을 하는지 파고드는 게 일이다. 테크 보스들은 우리에게 어떤 기술이 사용될 수 있는 방식은 오직 하나뿐이라고 믿게 만들고 싶어 한다. 마크 저커버그는 그가 엿듣지 않으면 친구랑 대화하는 게 기술적으로 불가능하다고 생각하길 바란다. 팀 쿡은 그가 당신이 설치하는 소프트웨어에 대해 거부권을 행사하지 않고, 당신이 쓰는 돈마다 1달러당 30센트를 떼어 가지 않으면, 신뢰할 수 있는 컴퓨팅 환경이 기술적으로 불가능하다고 믿게 만들고 싶어 한다. 순다르 피차이는 그가 당신을, 항문에서 식도까지 몽땅 감시하지 않고는 당신이 웹페이지 하나 찾는 것도 기술적으로 불가능하다고 생각하길 바란다.
이건 전부 조악한 형태의 대처리즘(Thatcherism)이다. 마거릿 대처의 만트라는 "대안은 없다(There is no alternative)"였다. 이 말을 워낙 자주 되풀이해서, 사람들은 그녀를 "티나(TINA)" 대처라고 불렀다: There. Is. No. Alternative. TINA.
"대안은 없다"는 값싼 수사적 속임수다. 관찰처럼 보이는 요구다. "대안은 없다"란 곧 "대안을 생각하려는 시도를 집어치워라"라는 뜻이다. 그러니까, 알다시피, _좆까라_는 말이다.
나는 SF 작가다. 내 일은 아침밥 먹기 전에 대안 열두 개쯤 상상하는 거다.
그러니, 이 AI 거품에서 무슨 일이 벌어지고 있는지, 허풍과 물질적 현실을 어떻게 가려낼 수 있는지, 그리고 우리가 어떻게 하면 더 나은 AI 비평가가 될 수 있는지에 대한 내 생각을 설명해 보겠다.
먼저 독점부터 시작하자. 테크 기업은 거대하고, 서로 경쟁하지 않는다. 혼자서, 혹은 카르텔을 이루어 아예 한 산업 전체를 집어삼킨다.
구글과 메타는 광고 시장을 통제한다. 구글과 애플은 모바일 시장을 통제하고, 구글은 애플이 검색 엔진을 새로 만들지 못하게 하려고 매년 200억 달러 이상을 지급한다. 당연히, 구글은 검색 시장 점유율 90%를 차지하고 있다.
겉보기엔, 업계 전체를 먹어치웠으니, 테크 기업에게 이건 호재처럼 보일 것이다.
그러나 실제론 위기다. 기업이 성장 중일 때, 그 기업은 "성장주"라고 불리고, 투자자들은 성장주를 아주 좋아한다. 성장주의 주식을 산다는 건 그 기업의 성장세가 계속될 것이라는 데 베팅하는 일이다. 그래서 성장주는 실적 대비 매우 높은 가격에 거래된다. 이를 "주가수익비율(Price to Earnings Ratio)" 혹은 "PER"이라고 부른다.
하지만 언젠가 기업의 성장이 멈추면, 그 기업은 "성숙주"가 되고, 훨씬 낮은 PER로 거래된다. 예를 들어 타깃(Target) 같은 성숙한 회사는 1달러를 벌어들이면 주식 가치는 10달러다. PER이 10이라는 뜻이고, 아마존의 PER은 36이다. 아마존이 1달러를 벌면, 시장은 그것을 36달러로 평가한다는 뜻이다.
성장주의 회사를 운영한다는 건 멋진 일이다. 당신 회사의 주식은 사실상 돈이다. 다른 회사를 인수하거나 핵심 인재를 영입하고 싶을 때, 현금 대신 주식을 제안할 수 있다. 그리고 주식은 회사가 구하기 쉬운 자원이다. 주식은 현장에서 찍어내면 되니까. 스프레드시트에 0을 몇 개 더 치기만 하면 된다. 반면 _달러_는 훨씬 구하기 어렵다. 회사는 고객이나 채권자에게서만 달러를 얻을 수 있다.
그래서 타깃이랑 아마존이 같은 인수 건이나 인재 영입을 두고 경쟁 입찰을 할 때, 아마존은 스프레드시트에 0을 몇 개 더 쳐서 만든 주식으로 입찰할 수 있다. 타깃은 우리 같은 소비자에게 물건을 팔거나 대출을 받아 얻은 달러로만 입찰할 수 있다. 그러니 아마존이 그런 입찰 경쟁에서 대체로 이기는 것이다.
이게 성장주가 가져다주는 _장점_이다. 하지만 단점도 있다. 결국 회사는 성장을 멈춰야 한다. 예컨대, 당신이 어느 산업에서 시장점유율 90%를 쥐고 있다고 하자. 이제 더 뭘로 성장하겠는가?
시장이 당신을 더 이상 성장주로 보지 않게 되는 순간, 당신이 성숙주가 되는 순간, 시장은 당신 기업의 가치를 그에 걸맞은 PER로 재평가한다.
성장주를 등에 업고 독점 기업을 이끄는 임원이라면, 시장이 "이 회사는 더 이상 성장할 가능성이 없다"고 판단하던 날을 밤낮으로 두려워한다. 2022년 1분기에 페이스북에 무슨 일이 있었는지 떠올려보자. 페이스북이 미국에서 예측보다 아주 약간 느린 성장세를 보였다고 보고하자, 투자자들이 _패닉_에 빠졌다. 하루 동안 2,400억 달러짜리 셀오프가 벌어졌다. 24시간 만에 2,500억 달러 가까운 증발! 당시 인류 역사상 단일 기업 가치가 가장 크고 가장 가파르게 떨어진 기록이었다.
이게 독점 기업이 꾸는 최악의 악몽이다. 일단 당신이 "성숙한" 회사를 이끄는 처지가 되면, 그동안 주식으로 보상하던 핵심 인력들은 갑자기 임금이 대폭 깎인 꼴이 되어 회사를 떠난다. 다시 성장하도록 도와줄 수 있었던 인재들이 떠나고, 그들을 대체할 인재를 채용할 때는 주식 대신 _달러_로만 경쟁해야 한다.
회사 인수도 마찬가지다. 성장을 도와줄 수 있을 법한 회사를 인수하려 해도, 그 회사 역시 현금, 즉 돈을 기대할 뿐이다. 주식 말고. 이것이 성장주의 역설이다. 독점에 이르기까지 성장하는 동안은 시장이 당신을 사랑하지만, 일단 _독점_을 달성하고 나면, 시장은 당신의 가격 결정력에 신뢰를 잃는 즉시 회사 가치를 한순간에 75% 이상 날려버릴 수 있다.
그래서 성장주 기업들은 항상 어떤 거품이든 하나라도 더 부풀리려고 안달한다. 비디오 전환(pivot to video), 암호화폐, NFT, 메타버스, AI… 이 모든 것에 거액을 때려붓고 과장 광고를 친다.
그렇다고 해서 테크 보스들이 애초에 이길 생각이 없는 내기를 하고 있다는 말은 아니다. 메타버스를 실현한다든지 하는 베팅에서 이기지 않을 거라고 전제하는 건 아니다. 다만 이렇게 말하고 싶다. 메타버스를 제대로 만들어내는 건 2차적인 목표라는 것이다. 1차적인 목표는, 시장이 당신 회사를 계속해서 성장할 회사로 믿게 만드는 것이다. 그리고 그 믿음이 유지되기만 하면 된다. 다음 거품이 나타날 때까지.
이게 바로, 그들이 왜 AI를 그렇게 떠받드는지에 대한 설명이다. 수천억 달러짜리 AI 투자에 놓인 물질적 토대다.
이제, 그들이 AI를 어떻게 팔고 있는지 이야기하자. AI의 성장 서사는 AI가 노동 시장을 붕괴(disrupt)시킬 거라는 이야기다. 여기서 "붕괴(disrupt)"는 가장 악명 높은, 테크 브로들이 쓰는 의미로 쓴다.
AI의 약속―AI 기업이 투자자에게 하는 약속―은 이렇다. 당신의 일을 할 수 있는 AI가 등장할 것이고, 당신의 상사는 당신을 해고하고 그 자리에 AI를 앉힐 것이다. 그러면 당신의 연봉 절반은 그 상사가 자기 몫으로 가져가고, 나머지 절반은 AI 회사에 줄 것이다.
딱 이거다.
이게 모건스탠리가 떠들어대는 13조 달러짜리 성장 시나리오다. 그래서 큰손 투자자와 기관투자자들이 수천억 달러를 AI 기업에 쏟아 붓는다. 그리고 이들이 우르르 들어오니, 일반 개인투자자들도 빨려 들어간다. 은퇴자금과 가족의 경제적 안정을 걸고 베팅에 나선다.
설령 AI가 당신의 일을 할 수 있다고 하더라도, 이건 여전히 문제다. 기술적으로 실업 상태에 빠진 사람들을 어떻게 할 건지 고민해야 하기 때문이다.
하지만 AI는 당신의 일을 할 수 없다. 당신이 일을 할 수 있도록 돕는 건 가능하지만, 그게 비용 절감으로 이어진다는 뜻은 아니다. 예컨대 영상의학을 보자. AI가 일부 방사선 전문의가 놓치는 고형 종양을 가끔 찾아내기도 한다는 증거가 어느 정도 있다. 참고로, 나는 암 환자다. 다행히도 난 아주 잘 치료될 수 있는 암을 앓고 있다. 그럼에도 영상의학이 최대한 정확해야 할 이유가 내겐 아주 분명하다.
만약 내가 다니는 카이저 병원이 AI 영상의학 도구를 도입해서 방사선과 전문의들에게 이렇게 말했다고 해보자. "여러분, 지금 하루에 X레이를 100장 정도 읽고 계시죠. 이제부턴 AI가 즉각적인 두 번째 의견을 내줄 겁니다. AI가 여러분이 종양을 놓쳤다고 판단하면, 다시 한 번 검토해 주세요. 하루에 98장밖에 처리하지 못해도 괜찮습니다. 우리는 무엇보다 종양을 놓치지 않는 게 제일 중요하니까요."
만약 병원이 이렇게 말한다면 나는 너무나 기쁠 것이다. 하지만 아무도 수천억 달러를 AI 회사에 투자하면서, AI가 영상의학을 더 비싸게 만들 거라고 기대하진 않는다. 설령 그 덕에 영상의학이 더 정확해지더라도 말이다. 시장이 AI에 베팅하는 논리는 이렇다. AI 영업사원이 카이저 CEO를 찾아가 다음과 같이 말할 거라고 믿는 것이다. "보시죠. 방사선과 전문의의 10분의 9를 해고합시다. 그러면 연간 2,000만 달러를 절약할 수 있습니다. 그중 1,000만 달러를 저희에게 주시면, 병원은 연간 1,000만 달러를 순이익으로 남기게 됩니다. 남은 방사선과 전문의의 역할은 초인적인 속도로 진단을 내리는 AI를 감독하는 겁니다. AI가 대부분의 경우에는 맞지만, 가끔은 치명적인 실수를 저지르더라도, 어쨌든 그 과정에서 늘 경계를 늦추지 않아야죠.
"그리고 AI가 종양을 놓치면 그건 인간 방사선과 전문의 잘못입니다. 그들이 바로 '인간이 개입하는 고리(human in the loop)'니까요. 진단서에 서명하는 사람도 그들이고요."
이게 역 켄타우로스다. 조금 더 구체적으로 말하면, 이건 댄 데이비스(Dan Davies)가 "책임의 싱크대(accountability sink)"라고 부르는 타입의 역 켄타우로스다. 방사선과 전문의의 일은 AI의 작업을 감독하는 게 본질이 아니다. AI가 저지르는 실수에 대한 책임을 떠안는 게 본질이다.
이건 AI 거품을 이해하고―그러니 꿰뚫어 터뜨리기까지 할 수 있게 해주는―또 하나의 핵심이다. AI는 당신의 일을 할 수 없다. 하지만 AI 영업사원은 당신의 상사를 설득해, 당신을 해고하고 당신의 일을 할 수 없는 AI로 당신을 대체하게 만들 수 있다. 이 포인트는, AI 거품에 맞서는 싸움에서 실제로 승리할 수 있는 연합 전선을 짜는 데 매우 중요하다.
당신이 암을 걱정하는 사람이라고 해보자. 영상의학을 너무 싸게―말 그대로 계량 불가능할 정도로 싸게―만들기 위해서는, 미국의 3만 2천 명 방사선과 전문의를 다른 데로 재취업시켜야 하는데, 그 대가로 누구든 영상의학 서비스를 거부당하는 일이 사라진다고 들었다고 하자. 이때 당신은 이렇게 말할 수도 있다. "음, 방사선과 전문의들에게 미안하고, 그들이 재교육을 받든 기본소득을 받든, 전적으로 지지합니다. 하지만 영상의학의 목적은 방사선과 전문의 월급을 주는 게 아니라 암과 싸우는 거니까, 어느 쪽 편에 설지 알겠네요."
AI 사기꾼들과 그들의 고객인 C-레벨 임원들은 대중을 자기 편으로 끌어들이고 싶어 한다. 그들은 AI를 배치하는 사람들과, 역 켄타우로스의 노동 성과를 즐기는 사람들 간의 계급 연합을 만들고 싶어 한다. 우리 모두가 스스로를 노동자의 적이라 생각하길 바란다.
물론 어떤 사람들은 정치적 신념이나 미학적 이유로 노동자 편에 설 것이다. 그저 노동자가 상사보다 더 좋아 보이기 때문이다. 하지만 당신의 노동 성과의 수혜자 전부를 자기 편으로 끌어들이려면, AI가 만들어낸 상품과 서비스가 얼마나 조악할지 이해시키고 강조해야 한다. 그들이 더 나쁜 물건을 더 비싼 값에 떠안게 될 거라는 사실을 보여줘야 한다. 그들이 노동자인 당신과 물질적 이해를 공유하고 있음을 납득시켜야 한다.
그 물건들이 정말로 조악할까? 그렇게 생각할 만한 이유는 충분하다. 앞에서 "자동화 맹목(automation blindness)"을 언급했다. 드물게 발생하는 사건에 대해 언제나 경계심을 유지하는 것은 육체적으로 불가능하다는 뜻이다. TSA 요원들이 물병을 적발하는 데는 기가 막히게 능숙한 이유가 여기에 있다. 하루 종일, 매일같이 이걸 연습하기 때문이다. 반면, 정부 레드 팀이 공항 보안의 실효성을 점검하려고 의도적으로 들여오는 총기나 폭탄을 제대로 적발하지 못하는 이유도 여기에 있다. 그런 걸 볼 기회가 거의 없기 때문이다. 실제로 TSA 보안검색대를 일부러 총이나 폭탄을 들고 통과하려 하는 사람은, 거의 없다고 봐도 무방하다.
자동화 맹목은 "인간이 개입하는 고리"의 아킬레스건이다.
AI 코드 생성으로 예를 들어 보자. AI를 아주 좋아하는 프로그래머들이 많다. 거의 예외 없이 이들은, 도구를 어떻게 사용할지 자신이 결정할 수 있는 숙련된 시니어 개발자들이다. 예컨대 AI에게 여러 브라우저의 여러 버전에서 웹페이지가 똑같이 렌더링되게 할 CSS 파일 묶음을 만들어달라고 시킬 수 있다. 악명 높을 만큼 귀찮은 작업이고, 결과물이 제대로 동작하는지 검증하는 것도 아주 쉽다. 여러 브라우저로 눈으로 확인하기만 하면 되니까. 혹은 단일 데이터 파일 하나를 가져와야 하는데, 변환 유틸리티를 새로 짜고 싶진 않은 경우도 있다.
이런 작업에서는 AI가 프로그래머를 진짜로 더 효율적으로 만들어줄 수 있고, 정말 재미있는 부분―즉 아주 어려운 추상적 퍼즐을 푸는 일―에 더 많은 시간을 쓸 수 있게 해준다. 하지만 경영진이 AI에 관해 말할 때를 들어 보면, 그들이 바라는 건 이런 "켄타우로스"가 아니라는 게 명백하다.
그들은 엄청나게 많은 기술 노동자들을 해고하고 싶어 한다. 지난 3년 동안만 50만 명이 해고됐다. 그리고 남은 사람들에게 그들의 일까지 떠안기게 하려 한다. 그건 AI가 모든 난해하고 창의적인 문제 해결을 맡고, 사람들은 가장 지루하고 영혼을 갉아먹는 부분―AI가 짜준 코드를 검토하는 일―만 해야 가능해진다.
AI는 단지 단어 맞추기 프로그램일 뿐이다. 할 수 있는 일이라고는, 다음에 올 단어로 가장 그럴듯한 후보를 계산하는 것뿐이다. 그래서 AI가 만드는 오류는 유난히 교묘하고 찾기 어렵다. 이 버그들은 말 그대로 정상적으로 동작하는 코드와 통계적으로 구분이 안 되기 때문이다(버그라는 사실만 빼고).
예를 들어 보자. 코드 라이브러리는 프로그래머가 자주 쓰는 작업을 매번 새로 코딩하지 않아도 되게 만들어주는 표준 유틸리티다. 텍스트를 처리하고 싶다면 표준 라이브러리를 가져다 쓸 것이다. HTML 파일을 처리하는 라이브러리는 lib.html.text.parsing 같은 이름일 수 있고, DOCX 파일을 처리하는 라이브러리는 lib.docx.text.parsing 같은 이름일 수 있다. 하지만 현실은 messy하고, 사람은 부주의하며, 일이 꼬이기도 한다. 그래서 PDF를 파싱하는 다른 라이브러리가 있는데, 이름이 lib.pdf.text.parsing이 아니라 lib.text.pdf.parsing이라든가 할 수 있다.
이제, AI는 통계적 추론 엔진이다. 지금까지 입력된 모든 단어를 바탕으로 다음에 올 단어를 예측할 뿐이다. 그러니 AI는 lib.pdf.text.parsing이라는 라이브러리가 있다고 착각(“환각”) 할 것이다. 문제는, 악의적인 해커들이 이런 AI의 오류를 알고 있다는 점이다. 그래서 그들은 그 예측 가능한 "환각" 이름을 가진 라이브러리를 실제로 만들어 올려두고, 그 라이브러리가 당신 프로그램에 자동으로 끼어들게 만든다. 그러면 그 라이브러리는 사용자 데이터를 훔치거나, 같은 네트워크에 있는 다른 컴퓨터를 침투하려 시도하는 등의 일을 한다.
그리고 당신, 즉 "인간이 개입하는 고리"이자 역 켄타우로스인 당신이, 이렇게 교묘하고 찾기 어려운 오류를 잡아내야 한다. 이 버그는, 정상 작동하는 코드와 통계적으로 구분되지 않는 버그다. 숙련된 시니어 개발자라면 이런 함정을 여러 번 겪어봤고, 이 트립와이어를 알기 때문에 잡아낼 수 있을지도 모른다.
하지만 테크 보스들이 AI로 누구를 가장 먼저 내쫓고 싶어 할지 생각해보자. 바로 시니어 개발자들이다. 시끄럽고, 권리를 주장하고, _터무니없이 고액 연봉_을 받는 사람들. 스스로를 노동자가 아니라, 창업 준비 중인 CEO, 회사 경영진의 동료쯤으로 여기는 부류다. 2018년 구글이 국방부 드론 타깃팅 시스템을 만들려다, 직원들이 주도한 파업으로 100억 달러짜리 계약을 날려 버렸을 때 그런 선두에 섰던 사람들이기도 하다.
AI가 가치 있으려면, 고임금 노동자를 대체해야 한다. 바로 그런 이들이, 축적된 공정 지식과 본능적인 직관 덕분에 이 통계적으로 위장된 AI 오류를 잡아낼 수 있을 법한 사람들이다.
앞에서 말했듯, 요점은 고임금 노동자를 대체하는 것이다.
AI 기업들이 프로그래머를 그렇게 꼭 내쫓고 싶어 하는 또 다른 이유는, 프로그래머가 노동 귀족(labor aristocracy)이기 때문이다. 노동시장에서 가장 일관되게 특권을 누리고, 수요가 많으며, 후하게 보상 받는 집단이다.
만약 _프로그래머_를 AI로 대체할 수 있다면, AI로 못 바꿀 직업이 뭐가 있겠는가? 프로그래머를 해고하는 건 그 자체로 AI 홍보다.
여기서 AI 아트 얘기로 넘어가자. AI 아트―혹은 "예술"―역시 AI 홍보 수단이다. 다만 AI의 비즈니스 모델의 일부는 아니다.
설명해 보겠다. 평균적으로 일러스트레이터는 돈을 거의 벌지 못한다. 이들은 이미 극도로 빈곤하고, 미리카리아(precarity)에 시달리는 집단이다. 이들은 포바지 에타르(Fobazi Ettarh)가 "직업적 숭배(vocational awe)"라고 부른 병을 앓고 있다. 자신의 일을 실제로 사랑하기 때문에, 착취에 특히 취약한 노동자 말이다. 간호사, 사서, 교사, 그리고 예술가들이 여기에 포함된다.
만약 AI 이미지 생성기가 오늘 일하고 있는 모든 일러스트레이터들을 실직시킨다고 해도, 그로 인한 임금 비용 절감은 이미지 생성기를 학습시키고 운영하는 데 드는 전체 비용에서 비율로 따지면 아예 눈에 띄지도 않을 수준이다. 상업 일러스트레이터 전체의 임금 총액은, 오픈AI 캠퍼스 한 곳 구내식당의 콤부차 예산보다도 적을 것이다.
AI 아트의 목적―그리고 AI 아트가 예술가들의 종말을 알린다는 이야기가 하는 역할―은, 대중이 AI가 엄청난 일을 해낼 놀라운 기술이라고 믿게 만드는 것이다. 노이즈를 만든다는 말이다. 그렇다고 해서, 전 오픈AI CTO 미라 무라티가 "어차피 존재해서는 안 됐던 창작 직업도 있다"고 말한 게 역겹지 않은 게 아니다. 그녀와 동료들이 예술가들의 작품을 이용해 그들의 생계를 망가뜨리는 일을 자랑스럽게 떠들어대는 게 특히 역겹지 않은 것도 아니다.
이건 일부러 역겹게 만들어진 것이다. 예술가들이 이리 뛰고 저리 뛰며 "AI가 내 일을 할 수 있다. 내 일을 빼앗아 갈 것이다. 이게 얼마나 끔찍한 일인지 알겠냐"고 외치길 바라는 것이다.
왜냐하면 AI의 고객들―기업의 보스들―에게 노동자의 일자리를 빼앗는 AI는 끔찍한 존재가 아니다. 멋진 존재다.
그런데 AI는 정말 일러스트레이터의 일을 할 수 있을까? 예술가의 일을, 어느 종류든, 할 수 있을까?
잠시만 진지하게 생각해 보자. 나는 17살 때부터 직업 예술가로 일해 왔다. 그때 처음으로 단편 소설을 팔았다. 그 이후로 예술이란 무엇인지, 아주 많이 생각해 왔다. 그리고 지금 내가 내린 정의는 이렇다. 예술은 이렇게 시작된다. 예술가가 있다. 그의 머릿속에는 거대하고 복잡하고 신비롭고 축약 불가능한 감정이 있다. 예술가는 그 감정을 어떤 예술 매체 안으로 주입한다. 노래든, 시든, 그림이든, 드로잉이든, 춤이든, 책이든, 사진이든. 그 작품을 당신 이 경험할 때, 그 거대하고 신비롭고 축약 불가능한 감정의 복제본이 당신 의 머릿속에 나타나게 하는 게 목표다.
예술을 이렇게 정의했으니, 잠깐 샛길로 빠져야 한다.
내 친구 중에 법학 교수가 있다. 챗봇이 등장하기 전에는, 성적이 아주 좋은 학생이 아니면 교수에게 추천서를 달라고 부탁할 엄두도 내지 못했다. 추천서는 쓰는 사람이 엄청 고생하는 문서였기 때문이다. 그래서 박사후연구원 공고를 내고, 존경받는 교수의 추천서를 가져온 지원자를 보면, 추천서가 존재한다 는 사실만으로도 그 교수가 그 학생을 정말 높게 평가하고 있다는 뜻이 되었다.
그러다가 챗봇이 등장했다. 이제 누구나 챗봇에 세 줄짜리 불릿 포인트만 던져 주면, 학생에 대한 화려한 묘사 다섯 단락을 토해내게 할 수 있다는 걸 안다.
그래서 내 친구가 박사후연구원 자리를 공고하면, 추천서가 _홍수_처럼 몰려온다. 친구는 이런 홍수를 처리하기 위해, 이 추천서들을 또 다른 챗봇에 집어넣는다. 그리고 챗봇에게 다시 세 줄짜리 불릿 포인트로 요약해 달라고 한다. 당연히, 그 세 줄은 처음에 입력했던 세 줄과 같지 않다. 이 모든 게 엉망이라는 이야기다.
하지만 분명한 사실도 있다. 다섯 단락짜리 추천서에서, 처음 세 줄짜리 불릿 포인트를 제외한 나머지 내용은 학생과 아무 관련이 없다. 챗봇은 학생을 모른다. 학생에 대한 어떤 것도 모른다. 그 학생에 관해 진실되거나 유용한 문장을 한 줄도 추가할 수 없다.
이게 AI 아트와 무슨 상관이 있을까? 예술은 예술가의 거대하고 신비롭고 축약 불가능한 감정을 다른 사람에게 옮기는 일이다. 하지만 이미지 생성 프로그램은 당신의 거대하고 신비롭고 축약 불가능한 감정에 대해서 아무것도 모른다. 오직 당신이 프롬프트에 적어 넣은 말만 알고 있다. 그 몇 줄의 문장은 수백만 픽셀이나 수십만 단어에 걸쳐 희석된다. 그 결과물의 평균적인 전달 밀도는, 사실상 0과 구분이 안 될 정도다.
물론 작품에 더 많은 의도를 담을 수도 있다. 더 자세한 프롬프트를 쓰거나, 수많은 변형 가운데에서 골라내는 선택 행위를 하거나, 생성된 이미지를 그림 도구, 포토샵, GIMP 등으로 직접 손보는 것이다. 만약 언젠가 AI 아트 가운데 진짜 좋은 예술―그냥 눈에 띄거나 흥미롭거나 견본으로 쓸 만한 솜씨 좋은 그림이 아니라, 진짜로 좋은 예술―이 나온다면, 그건 반드시 이런 추가적인 인간의 창조적 개입 덕분일 것이다.
그 전까지는, 이건 나쁜 예술이다. 마크 피셔가 "으스스함(eerie)"이라고 부른 의미에서 나쁜 예술이다. 피셔의 정의에 따르면, 으스스함이란 "아무것도 없어야 할 곳에 무언가가 있거나, 무언가가 있어야 할 곳에 아무것도 없는 상태"다.
AI 아트가 으스스한 이유는, 우리가 평생을 살면서 배운 경험 덕분에, 모든 그림에는 화가가 있고, 모든 글에는 작가가 있다고 여겨 버리기 때문이다. 그러니 그림의 모든 픽셀과 글의 모든 단어 뒤에 의도와 의도를 가진 존재가 있을 거라고 기대한다. 그런데 뭔가가 빠져 있다. 이 그림은 아무 말도 하지 않거나, 뭔가를 말하더라도 너무 희석되어 감지가 안 된다.
트릭을 알아내기 전에는 이 이미지들이 놀랍게 보였다. 하지만 이제는 구름이나 낙엽 더미에서 우리가 상상해내는 이미지와 같다. 우리가 장면의 일부를 떼어내 프레임을 씌우는 것이다. 우리가 어떤 윤곽은 강조하고 나머지는 무시하는 것이다. 우리는 잉크 얼룩을 보며 거기에 의미를 읽어넣고 있지만, 그 잉크 얼룩은 우리에게 아무것도 말하지 않는다.
가끔 그런 이미지가 시각적으로 매력적일 수 있다. 프롬프터와 감상자 커뮤니티 안에서 그들이 서로를 즐겁게 한다면, 그건 무해한 볼거리다.
내 지인 중에는 줌으로 매주 던전 앤 드래곤(D&D)을 하는 사람이 있다. 게임 내용이 오픈소스 모델로 녹취되고, 던전 마스터 컴퓨터에서 로컬로 돌아간다. 이 모델이 그날 세션을 요약하고, 이미지 생성기에 프롬프트를 던져 주요 장면을 그리게 한다. 이 요약과 이미지들은 온갖 오류로 가득하기 때문에 오히려 더 재미있다. 소소한 재미다. 일곱 개 손가락이 달린 팔라딘이 손 하나 더 달린 오크와 씨름하는 그림을 생성하는 걸로 일러스트레이터가 해고당할 일은 없다.
하지만 보스들은, 그리고 앞으로도 계속, 일러스트레이터를 해고할 것이다. 창작 전문 인력을 싹 걷어내고, 프롬프트만 던지면 작업이 끝나기를 꿈꾸기 때문이다. 비록 AI가 일러스트레이터의 일을 할 수 없더라도, AI 영업사원은 일러스트레이터의 상사를 설득해, 그들을 해고하고, 일을 할 수 없는 AI로 대체하게 만들 수 있다.
이건 끔찍하고 역겨운 국면이다. 우리는 대처리즘이 주입하는 운명론, "대안은 없다"를 어깨 으쓱하며 받아들여선 안 된다.
그렇다면 _대안_은 무엇인가? 많은 예술가와 그 동지들은 답을 찾았다고 믿는다. 그들은 모델 학습에 수반되는 활동에 저작권을 확장 적용해야 한다고 말한다.
나는 여기에 대해 이렇게 말하겠다. 그들은 틀렸다. 그들은 끔찍한 부수 피해를 사회적으로 유익한 활동에 입히는 제안을 하고 있다. 그리고 현재 허용되고 있는 활동들―그럴 만한 좋은 이유가 있어서 허용되는 활동들―위에, 저작권이라는 독점권을 거대하게 확장하는 주장을 하고 있다.
AI 학습 과정을 단계별로 뜯어보자.
먼저, 웹페이지를 긁어 온다(scraping). 이건 현행 저작권법상 명백히 합법이다. 저작권 있는 작품을 분석하기 위해 일시적인 복제본을 만드는 데 라이선스가 필요하다면, 검색 엔진은 전부 불법이 되어야 한다. 스크레이핑을 금지하는 순간, 구글은 인류가 갖는 마지막 검색 엔진이 될 것이다. 인터넷 아카이브는 문을 닫고, 오스트리아에서 식료품점 웹사이트를 몽땅 긁어 와서 대형 체인이 가격 담합을 하고 있다는 걸 증명한 연구자는 큰 곤경에 처할 것이다.
그다음엔, 이런 작품들을 분석한다. 기본적으로, 안에 들어 있는 것들을 세는 일이다. 픽셀을 세고, 픽셀의 색과 주변 픽셀과의 거리 등을 세고, 단어를 센다. 이런 분석은 라이선스를 받을 필요가 전혀 없다. 저작권 있는 작품의 구성 요소를 세는 행위가 불법일 리가 없다. 만약 학문 연구에 관심이 조금이라도 있다면, 그것조차 불법으로 만들고 싶진 않을 것이다.
여기서 주목할 점은, 설령 불법적으로 입수한 복제본을 바탕으로 카운팅을 하더라도, 카운팅 행위 자체에는 저작권 침해가 성립하지 않는다는 것이다. 예를 들어 벼룩시장에서 부트렉 음악 CD를 하나 샀다고 하자. 집에 가져와서 가사에 등장하는 부사를 전부 세어 목록을 만든 후, 그 목록을 발표해도, 이 행위 자체는 저작권을 침해하지 않는다.
불법 복제 CD를 구입함으로써 저작권을 침해했을 수는 있다. 하지만 가사를 세고, 그 결과를 발표하는 행위 자체는 저작권 침해가 아니다.
앤트로픽(Anthropic)이, 해적 사이트에서 다운받은 엄청난 양의 책으로 모델을 학습시킨 뒤 15억 달러 합의안을 제시한 이유가 바로 여기에 있다. 단지 그 책들의 단어를 세고 분석한 행위가 저작권자의 권리를 침해했고 두려워서가 아니다. 책 파일을 다운로드 한 건에 대해, 책 한 권당 15만 달러에 이르는 법정손해배상금을 물릴 수 있을지 모른다고 걱정했기 때문이다.
좋다. 이제 픽셀과 단어를 다 세었으면, 마지막 단계인 "공표"로 넘어간다. 모델이란 결국, 다른 수많은 작품의 여러 사실들, 단어와 픽셀 분포에 관한 사실들을 다차원 배열에 부호화한 문학 작품(소프트웨어 한 조각)이다.
역시나, 저작권은 저작권 작품에 대해 사실을 공표하는 행위를 금지하지 않는다. 그리고 누구도, 자신이 어떤 진실된 사실을 공표할 수 있는지, 없는지를 다른 누군가가 결정하는 세상에서 살고 싶진 않을 것이다.
좋다. 그래도 이 모든 게 궤변처럼 들릴 수도 있다. 내가 개소리를 하고 있다고 여길 수도 있다. 괜찮다. 나를 그렇게 씹는 사람이 처음은 아니다.
나는 현행 저작권법이 이렇게 작동한다고 생각하지만, 법을 바꿔서 학습 활동을 금지할 수도 있을 것이다. 영리하게 법 조문을 짜면, 우리가 싫어하는 나쁜 것들만 걸러내고, 스크레이핑·분석·공표가 낳는 좋은 결과물들은 지킬 수도 있을지 모른다.
그렇더라도, 그런 새 저작권을 만들어도 창작자들에게 별 도움이 되지 않을 것이다. 만약 그런 게 도움이 될 거라고 생각한다면, 다음 사실을 정면으로 직시해야 한다. 1976년 이후 우리는 저작권을 일관되게 확장해 왔다. 오늘날 저작권은 더 다양한 종류의 작품을 보호하고, 더 다양한 사용을 저작권자의 독점권으로 만들며, 더 오래 지속된다.
그 결과, 미디어 산업은 그 어느 때보다 크고, 그 어느 때보다 수익성이 좋아졌다. 그런데도 창작자들이 미디어 산업에서 가져가는 몫은, 실질 가치 면에서도, 그리고 전체 수익 가운데 노동자 몫의 비율 면에서도, 역사상 가장 낮다.
우리가 창작자들에게 모든 새로운 권리를 안겨주고, 그 권리가 엄청난 부를 만들어냈는데, 정작 창작자는 더 가난해진 이유가 뭘까? 창작 시장이 다섯 개의 출판사, 네 개의 스튜디오, 세 개의 레이블, 두 개의 모바일 앱스토어, 그리고 전자책과 오디오북을 전부 통제하는 단일 기업에게 지배당하고 있기 때문이다. 이런 환경에서 창작자에게 협상할 추가 권리를 하나 더 쥐여 준다는 건, 알고 보면 괴롭힘 당하는 아이에게 용돈만 더 쥐여주는 것과 같다.
아이에게 용돈을 아무리 많이 줘도, 깡패들은 전부 빼앗아 갈 것이다. 너무 많이 주면, 깡패들이 아예 홍보 대행사를 고용해 "배고픈 아이들을 생각합시다! 그들에게 더 많은 용돈을!"이라는 글로벌 캠페인을 벌이기 시작할 것이다.
대형 스튜디오와 레이블이 제기하는 소송을 열렬히 응원하는 창작자들은, 계급 전쟁의 1원칙을 잊어선 안 된다. 당신의 상사에게 좋은 일은, 대개 당신에게 좋지 않다.
디즈니와 유니버셜이 미드저니를 상대로 소송을 제기한 바로 그날, 나는 RIAA(미국음반산업협회)에서 보도자료를 받았다. RIAA는 디즈니와 유니버셜의 레코드 부문을 대표한다. 유니버셜은 세계 최대의 레이블이다. 소니, 워너와 함께 오늘날 저작권 보호를 받는 음악 녹음물의 70%를 통제한다.
보도자료는 이렇게 시작한다. "AI 혁신을 촉진하고 인간 예술성을 육성하는 파트너십이라는, 분명한 길이 눈앞에 열려 있습니다."
마지막 문장은 이렇다. "디즈니와 유니버셜의 이번 행동은 인간 창의성과 책임 있는 혁신을 위한 중대한 입장 표명입니다."
그리고 이 문서에는 RIAA CEO 미치 글레이저(Mitch Glazier)가 서명했다.
이 이름이 익숙하지 않은 사람도 많을 것이다. 하지만 그가 누구인지 말해 보겠다. 오늘날 미치 글레이저는 RIAA CEO로 연간 130만 달러의 연봉을 받는다. 하지만 1999년까지, 그는 미국 의회의 핵심 보좌관이었다. 그리고 1999년, 글레이저는 위성 홈 시청자개선법(Satellite Home Viewer Improvement Act)이라는 전혀 상관 없는 법안에 슬쩍 수정 조항을 끼워 넣었다. 이 조항은, 음악가들이 레이블로부터 자신의 녹음물을 되찾아 올 수 있는 권리를 박탈하는 내용이었다.
이 권리는 특히 "헤리티지 액트(heritage acts, 레코드 산업이 흑인 음악 전성기에 활동했던 오래된 아티스트들을 가리키는 완곡어법)"에게 중요했다. 이 권리 덕분에 집세를 내느냐, 길거리로 내몰리느냐가 갈리곤 했다.
글레이저가 이런 사기극을 벌였다는 사실이 드러나자, 여론은 들끓었다. 의회는 다시 소집되어, 글레이저의 수정안을 취소하는 표결을 따로 치를 정도였다. 그리고 글레이저는 잘나가던 의회 보좌관 자리를 박차고 나와야 했다. 그 직후부터 RIAA는 연간 100만 달러 이상을 그에게 지불하며 "음악 산업"을 대표하게 했다.
이 사람이 바로 내 이메일함에 도착한 보도자료에 서명한 그 사람이다. 그의 메시지는 이런 것이다. 문제는 미드저니가 저작권 있는 작품으로 생성형 AI 모델을 학습하고, 그걸로 예술가들을 거지로 내모는 데 있지 않다. 문제는 미드저니가 RIAA 회원사인 유니버셜과 디즈니에게 모델 학습을 허락해 달라고 돈을 내지 않았다는 데 있다. 만약 미드저니가 유니버셜과 디즈니 카탈로그에 대한 학습권 계약을 몇 백만 달러 주고 샀다면, 이 회사들은 기꺼이 학습을 허용했을 것이다. 그리고 그 모델을 사들여 마음껏 썼을 것이고, 할 수 있는 한 많은 창작 노동자를 해고했을 것이다.
우리는 벌써 헐리우드 파업을 잊었는가? 나는 아니다. 나는 디즈니, 유니버셜, 워너가 있는 버뱅크에 산다. 파업 내내 작가조합 동지들과 함께 피켓 라인에 섰다. 나도 소속 조합인 IATSE 830, 애니메이션 길드(그 중 작가 유닛)의 이름으로 연대했다.
그리고 나는 한 작가가 내게 이렇게 말하던 장면을 평생 잊지 못할 것이다. "LLM한테 프롬프트 주는 건, 딱 고약한 경영진이 작가실에 쓰레기 같은 노트를 주는 방식이랑 똑같아요. ‘E.T. 같은 걸로 해봐, 대신 이번에는 강아지를 주인공으로 해봐. 그리고 러브라인 하나 집어넣고, 2막에 카 체이스도 넣자’ 같은 거요. 이 말을 작가실에다 하면, 다들 당신을 한심한 양복쟁이 같다고 비웃죠. 그런데 LLM한테 이 말을 하면, 이 사양을 정확히 따른 끔찍한 시나리오를 아주 공손하게 뱉어 내요(예를 들면, 에어 버드)."
이 회사들은 AI를 이용해 노동자를 대체하고 싶어 안달이 났다. 게티 이미지가 AI 회사들을 상대로 소송을 할 때, 게티는 사진가 들의 이해를 대변하는 게 아니다. 게티는 사진가에게 돈 주는 걸 증오 한다! 게티가 원하는 건, 학습 과정에서 돈을 받는 것이다. 그리고 그 결과 나온 AI 모델에 방어막을 쳐, 게티와 경쟁할 수 있는 이미지를 만들어 달라는 요청은 게티 본인 외에는 모두 거절하길 바란다. 하지만 게티는 이런 모델을 기꺼이 사용해, 가능한 한 많은 사진가를 파산으로 내몰려 할 것이다.
모델 학습에 대한 새 저작권이 만들어진다고 해서, AI 모델이 예술가를 파괴하는 일은 막지 못한다. 다만, 창작 노동시장을 통제하는 소수 대기업들의 표준 계약서에, 우리가 이 새 학습권까지 넘겨줘야 한다는 조항이 추가될 뿐이다. 새 저작권을 요구하는 건, 결국 당신 상사를 위한 유용한 바보가 되는 길이다. 그들이 정책 싸움에서 우리를 인간 방패로 내세우고, "굶주린 예술가"를 내세우는 위선적인 도덕 쇼를 벌이는 걸 돕는 길이다.
실제로 그들이 요구하는 건, AI 회사들의 투자 자본 중 30%를 자기들 주주 주머니에 넣게 해 달라는 것이다. 예술가가 탐욕스런 독점기업에게 잡아먹히고 있을 때, 그들이 먹잇감을 어떻게 나눠 먹는지 가 중요한가?
우리는 AI의 약탈에서 예술가를 보호해야 한다. 그리고 그 방식이 예술가가 자신의 빈곤에 분노하는 새로운 구실만 만들어줘선 안 된다.
놀랍게도, 이걸 해내는 방법은 아주 단순하다. 20년 넘게 예술가 권리에 관해서는 한결같이 틀린 판단만 해 오던 미국 저작권청이 이번만큼은 정말 멋지게, 놀랍도록 훌륭한 일을 했다. AI 거품 내내, 저작권청은―정확하게도―AI 생성물에는 저작권을 인정할 수 없다고 일관되게 밝혀 왔다. 저작권은 오직 인간에게만 주어진다. 그게 바로 "원숭이 셀피"가 퍼블릭 도메인에 속하는 이유다. 저작권은 오직 인간의 창작 표현이 유형 매체에 고정된 경우에만 부여된다.
저작권청은 이런 입장을 내세웠을 뿐만 아니라, 법정에서 여러 차례 강력하게 방어해 왔고, 반복해서 승소했다.
AI가 만든 작품이 전부 퍼블릭 도메인이라는 사실은, 만약 게티나 디즈니나 유니버셜이나 허스트 신문사 등이 AI를 써서 작품을 만든다면, 누구든 그 작품을 가져다가 복제하고, 팔고, 공짜로 나눠 줄 수 있다는 뜻이다. 이 회사들이 크리에이티브 노동자에게 돈을 주는 것만큼이나 싫어하는 일이 있다면, 누군가가 자기네 콘텐트를 무단으로 가져다 쓰는 일이다.
저작권청의 입장은, 이 회사들이 저작권을 얻을 수 있는 유일한 길은 인간에게 돈을 주고 창작하게 하는 것뿐이라는 뜻이다. 이건 켄타우로스를 위한 처방이다. 프롬프트를 아이디어 스케치나 변주를 얻는 데 사용하는 예술가라면 아무 문제 없다. 최종 결과물은 어차피 당신이 만들기 때문이다. 수백 명 엑스트라의 시선을 모두 한꺼번에 바꾸기 위해 딥페이크를 쓰는 영상 편집자도 마찬가지다. 그 대체된 눈동자 자체는 퍼블릭 도메인이겠지만, 영화는 여전히 저작권이 있다.
하지만 크리에이티브 노동자들은, 미국 정부가 우리를 AI 포식자로부터 구해줄 때까지 손 놓고 있어야 할 필요가 없다. 우리가 직접 할 수 있다. 작가들이 역사적인 파업으로 해낸 것처럼 말이다. 작가들은 스튜디오들을 무릎 꿇렸다. 그들은 조직되어 있었고 연대했기 때문에 승리했다. 동시에, 다른 거의 모든 미국 노동자에게는 금지된 일을 할 수 있었기 때문이다. 바로 "산별 교섭(sectoral bargaining)"이다. 한 산업에 종사하는 모든 노동자가, 그 산업의 모든 고용주와 맺는 단일 계약을 협상하는 방식이다.
이건 1940년대 말 태프트-하트리 법이 통과되면서 대부분의 노동자에게 금지되었다. 더 많은 돈을 벌고 노동에 대한 통제력을 키우기 위해 새 법을 요구하는 캠페인을 벌이겠다면, 저작권 확대가 아니라 산별 교섭권 회복을 요구해야 한다.
저작권 확장을 위한 싸움에서 우리의 동맹은, 우리의 심복이 된 적이 한 번도 없는 상사들이다. 반대로 산별 교섭권을 위한 싸움에서 우리의 동맹은 나라의 모든 노동자다. 노래 가사처럼 묻자. "당신은 어느 편인가? (Which side are you on?)"
이제 시간 관계상 이 이야기를 마무리해야 할 때다. 그러니 이렇게 끝맺겠다. AI는 거품이고, 거품은 나쁘다.
거품은 평범한 사람들이 평생 모은 저축을, 그저 존엄한 노후를 꿈꾸던 사람들의 돈을, 우리 사회에서 가장 부유하고 가장 비윤리적인 사람들에게 이전해 버린다. 그리고 모든 거품은 결국 꺼진다. 그와 함께 평범한 사람들의 저축도 사라진다.
하지만 모든 거품이 똑같지는 않다. 어떤 거품은 무언가 생산적인 것을 남긴다. 월드컴은 광섬유 케이블 주문에서 사기를 쳐 평범한 사람들에게서 수십억을 훔쳐갔다. CEO는 감옥에 갔고, 그곳에서 죽었다. 하지만 그 광섬유는 그의 수명을 넘어 살아남았다. 지금도 땅 속에 묻혀 있다. 나는 집에서 2기가 대칭 광랜 서비스를 쓴다. AT&T가 옛 월드컴의 다크 파이버(dark fiber)를 점등했기 때문이다.
그렇다고 월드컴이 존재했던 게 좋은 일이라는 뜻은 아니다. 다만 월드컴이 저 모든 끔찍한 사기를 치고도, 우리가 그 잔해에서 아무것도 건질 수 없었다면, 그보다 더 나쁜 경우는 없었을 것이다.
나는 암호화폐 거품에서 건질 만한 게 많을 거라곤 생각하지 않는다. 물론, 러스트(Rust)로 보안 프로그래밍을 배우게 된 개발자 몇 명쯤은 나오겠지만 말이다. 하지만 크립토가 죽고 나면, 우리가 잔해에서 건질 수 있는 것이라곤 나쁜 오스트리아 경제학과 더 나쁜 원숭이 JPEG뿐일 것이다.
AI는 거품이고, 머지않아 꺼질 것이다. 대부분의 회사가 망할 것이다. 대부분의 데이터센터가 폐쇄되거나 부품으로 팔릴 것이다. 그렇다면 무엇이 남을까?
응용 통계에 능숙한 프로그래머 집단을 얻게 될 것이다. 값싼 GPU가 쏟아져 나올 것이다. 이건 이펙트 아티스트나 기후 과학자 같은 사람들에게 좋은 소식이다. 그들이 아주 중요한 하드웨어를 헐값에 살 수 있게 되니까. 그리고 범용 하드웨어에서 돌아가는 오픈소스 모델이 남을 것이다. 오디오와 비디오를 필기록으로 옮기고, 이미지를 묘사하고, 문서를 요약하고, 배경 제거나 지나가는 사람 지우기 같은 지루한 그래픽 편집 작업을 자동화하는 등 유용한 일을 해낼 수 있는 AI 도구들이다. 이런 것들은 우리의 노트북과폰에서 돌아갈 것이고, 오픈소스 해커들이 이걸 원래 제작자들이 상상도 못한 방향으로 밀어붙일 것이다.
만약 AI 거품이 한 번도 없었고, 이런 것들이 모두 그냥 컴퓨터 과학자와 제품 매니저들이 몇 년 동안 백프로파게이션, 머신러닝, 적대적 생성 네트워크(GAN) 같은 걸 가지고 놀다가 만들어낸 결과물이었다면, 대부분의 사람들은 자기 컴퓨터가 새로 할 수 있게 된 흥미로운 기능들에 기분 좋게 놀랐을 것이다. 우리는 이걸 "플러그인"이라고 불렀을 것이다.
문제는 이 응용 프로그램들이 아니라, _거품_이다. 거품이 원하는 건 싸고 유용한 것이 아니다. 비싸고 "파괴적"인 것들이다. 매년 수십억 달러 적자를 내며 돌아가는 거대 기초 모델 같은 것들.
AI 투자 광기가 멈추면, 그런 모델 대부분은 사라질 것이다. 데이터센터를 돌려놓는 게 경제성이 맞지 않게 되기 때문이다. 스타인의 법칙(Stein’s Law)이 말하듯, "영원히 계속될 수 없는 것은, 결국 멈춘다."
AI 거품이 붕괴하는 과정은 흉측할 것이다. 현재 일곱 개 AI 기업이 전체 주식 시장의 3분의 1 이상을 차지하며, 서로에게 1,000억 달러짜리 IOU(차용증)를 돌려가며 쓰고 있다.
보스들은 생산적인 노동자를 대량 해고하고, 허접한 AI로 그 자리를 메우고 있다. 그리고 그 허접한 AI까지 사라지면, 해고됐던 대부분의 노동자를 다시 찾아 재고용할 수 없게 될 것이다. 우리는 제대로 돌아가지 않는 AI 시스템에서, 아무 시스템도 없는 상태로 곤두박질칠 것이다.
AI는 우리 기술 사회의 벽 속에 마구 밀어 넣은 석면(asbestos)과도 같다. 금융 부문과 테크 독점이 폭주하는 바람에 이 석면이 곳곳에 쌓였다. 우리는 이걸 한 세대 이상 파내는 작업을 해야 할 것이다.
그러니 이 거품을 없애야 한다. 가능한 한 빨리, 거품을 터트려야 한다. 그러려면 거품을 떠받치는 물질적 요인에 집중해야 한다. 이 거품을 떠받치는 건, 딥페이크 포르노도, 선거 허위정보도, AI 이미지 생성도, 쓰레기 광고(slop advertising)도 아니다.
이 모든 건 끔찍하고 해롭지만, 투자를 이끄는 요인은 아니다. 이런 응용 프로그램들이 벌어들이는 돈은, AI의 자본 지출과 운영 비용에서 보면 먼지에 불과하다. 이건 주변부, 잔여적 용도다. 요란하지만, 거품에는 중요하지 않다.
이 용도들을 전부 없애더라도, AI 기업이 기대하는 수익에서 깎이는 금액은, 소숫점 반올림하면 0이 될 정도이다.
"AI 안전(AI Safety)"이라는 헛소리도 마찬가지다. 이들은 AI가 감각을 얻고 인류를 클립으로 만들어버리는 일을 막아야 한다고 주장한다. 하지만 이건 얼굴만 봐도 말이 안 된다. 단어 맞추기 프로그램에 단어와 GPU를 더 때려붓는다고 해서 감각이 생기지 않는다. 이건 마치 이런 주장과 같다. "우리가 이 말들을 더 빨리 달리게 하려고 계속 교배시키고 있으니, 언젠가 이 암말 중 하나가 기관차를 낳을 것이다." 인간의 정신은, 단지 더 많은 단어를 먹인 단어 맞추기 프로그램이 아니다.
나는 SF적 사고 실험을 좋아한다. 오해 마시라. 하지만 SF를 예언으로 착각해선 안 된다. 초지능에 대한 SF 이야기는, 미래를 배경으로 한 우화일 뿐이다. 사업 계획서나 로드맵, 예측이 아니다.
AI 안전론자들은 AI가 세상을 끝낼까 봐 걱정한다고 말한다. 하지만 AI 보스들은 이런 괴짜들을 사랑 한다. 한편으로, AI가 세상을 파괴할 수 있을 정도로 강력하다면, 돈은 또 얼마나 많이 벌 수 있겠는가! 다른 한편으로, 어느 AI 비즈니스 플랜에도 수익 예측 스프레드시트에 "인류를 클립으로 만드는 행위에서 발생하는 수익" 항목은 없다. 그러니 설령 우리가 AI 기업이 그런 짓을 못 하게 막는다 해도, 그들이 끌어올릴 투자 자본에서 단 한 푼도 깎이지 않는다.
거품을 터트리려면, 거품을 만든 힘들의 뿌리를 두들겨야 한다. AI가 당신의 일을 할 수 있다는 신화, 특히 당신처럼 고임금을 받는 노동자를 대체해 상사가 임금을 되찾아 올 수 있다는 신화. 성장 기업이 살아남으려면 점점 더 황당한 거품이 연달아 필요하다는 이해. 노동자들과, 그 노동이 봉사하는 대중이 한 편에 서 있고, 보스들과 그들의 투자자들이 다른 편에 서 있다는 사실.
AI 거품은 정말로, 아주 나쁜 소식이다. 그렇기에 진지하게 싸울 가치가 있다. AI에 맞선 진지한 싸움은, 수백억 달러를 낭비해 우리를 거리로 내쫓고, 우리 벽을 온통 하이테크 석면으로 채우려는 물질적 요인, 그 뿌리를 공략하는 싸움이다.
(이미지: Cryteria, CC BY 3.0, 수정)

정치와 자본주의 침체(POLITICS AND CAPITALIST STAGNATION)
https://www.unpopularfront.news/p/politics-and-capitalist-stagnation
스피릿 파이낸셜–Credit Union 1 합병 제안 분석: 신용조합 시스템에 미칠 결과
https://chipfilson.com/2025/12/an-analysis-of-the-proposed-spirit-financal-credit-union-1-merger/
기후 위험 데이터가 매매에 악영향을 준다는 항의 이후, 질로우가 매물 정보에서 기후 위험 데이터를 삭제하다
https://www.theguardian.com/environment/2025/dec/01/zillow-removes-climate-risk-data-home-listings
수년간의 논란 끝에, EU의 "채팅 통제(Chat Control)"가 마지막 관문에 다다르다: 알아야 할 것들
https://www.eff.org/deeplinks/2025/12/after-years-controversy-eus-chat-control-nears-its-final-hurdle-what-know
달러 스토어 산업이 어떻게 저렴한 가격을 약속하면서도 궁핍한 고객들에게 과도한 비용을 지우는가
https://www.theguardian.com/us-news/2025/dec/03/customers-pay-more-rising-dollar-store-costs

#20년 전 오늘: 유령과 문을 더한 ‘Haunted Mansion’ 종이 모형
https://www.haunteddimensions.raykeim.com/index313.html
#20년 전 오늘: 직접 인쇄해 쓰는 모노폴리 지폐
https://web.archive.org/web/20051202030047/http://www.hasbro.com/monopoly/pl/page.treasurechest/dn/default.cfm
#15년 전 오늘: 버니가 설명하는 X박스 해킹의 기술적 복잡성과 법률
https://www.bunniestudios.com/blog/2010/usa-v-crippen-a-retrospective/
#15년 전 오늘: 팩맨 유령이 행동을 결정하는 방법: 우아한 복잡성
https://web.archive.org/web/20101205044323/https://gameinternals.com/post/2072558330/understanding-pac-man-ghost-behavior
#15년 전 오늘: 세상 곳곳의 화려하고 정교하며 상스러운 욕설 모음
https://www.reddit.com/r/AskReddit/comments/efee7/what_are_your_favorite_culturally_untranslateable/?sort=confidence
#15년 전 오늘: 디즈니월드 직원들이 생계 임금을 요구하며 말하다
https://www.youtube.com/watch?v=f5BMQ3xQc7o
#15년 전 오늘: 위키리크스 외교 문건, 미국이 스페인 저작권법 초안을 썼다는 사실이 드러나다
https://web.archive.org/web/20140723230745/https://elpais.com/elpais/2010/12/03/actualidad/1291367868_850215.html
#15년 전 오늘: 부서진 전자기기로 만든 도시들
https://web.archive.org/web/20101203132915/https://agora-gallery.com/artistpage/Franco_Recchia.aspx
#10년 전 오늘: TPP의 소스코드 공개 금지 조항: 정보 보안에 나쁜 소식
https://www.eff.org/deeplinks/2015/12/tpp-threatens-security-and-safety-locking-down-us-policy-source-code-audit
#10년 전 오늘: MIT 총장실 화석연료 투자철회 농성, 100억 시간 돌파
https://twitter.com/FossilFreeMIT/status/672526210581274624
#10년 전 오늘: 해커, UAE Invest Bank 고객 데이터 유출
https://www.dailydot.com/news/invest-bank-hacker-buba/
#10년 전 오늘: 일리노이 주, 죄수들을 감시하고, 수감자가 돈이 있으면 감방 임대료를 청구하다
https://www.chicagotribune.com/2015/11/30/state-sues-prisoners-to-pay-for-their-room-board/
#10년 전 오늘: 프라이버시 도구 개발자를 위한 무료 사용성 지원
https://superbloom.design/learning/blog/apply-for-help/
#10년 전 오늘: 2015년 첫 334일 동안 미국에서 벌어진 대량 총격 사건 351건(이후 계속 집계)
https://web.archive.org/web/20151209004329/https://www.washingtonpost.com/news/wonk/wp/2015/11/30/there-have-been-334-days-and-351-mass-shootings-so-far-this-year/
#10년 전 오늘: BP의 멕시코만 살인적 유출 사고, 결국 아무도 감옥에 가지 않다
https://arstechnica.com/tech-policy/2015/12/manslaughter-charges-dropped-in-bp-spill-case-nobody-from-bp-will-go-to-prison/
#10년 전 오늘: 『Urban Transport Without the Hot Air』: 관련 사실로 문제를 혼란스럽게 만들기!
https://memex.craphound.com/2015/12/03/urban-transport-without-the-hot-air-confusing-the-issue-with-relevant-facts/
#5년 전 오늘: 숨 막히는 아이폰 해킹
https://pluralistic.net/2020/12/03/ministry-for-the-future/#awdl
#5년 전 오늘: 그래피티 작가들, 뉴욕 지하철 수십 량을 도배하다
https://pluralistic.net/2020/12/03/ministry-for-the-future/#getting-up
#5년 전 오늘: 『미래부(The Ministry For the Future)』
https://pluralistic.net/2020/12/03/ministry-for-the-future/#ksr
#5년 전 오늘: 독점이 미국을 코로나19에 취약하게 만든 이유
https://pluralistic.net/2020/12/03/ministry-for-the-future/#big-health
#5년 전 오늘: 230조는 사실 좋은 것(Section 230 is Good, Actually)
https://pluralistic.net/2020/12/04/kawaski-trawick/#230
#5년 전 오늘: NYPD의 흑인 남성 살해 사건 사후 분석
https://pluralistic.net/2020/12/04/kawaski-trawick/#Kawaski-Trawick
#5년 전 오늘: 학자금 부채의 덫
https://pluralistic.net/2020/12/04/kawaski-trawick/#strike-debt
#1년 전 오늘: "그게 날 똑똑하게 만드는 거야(That Makes Me Smart)"
https://pluralistic.net/2024/12/04/its-not-a-lie/#its-a-premature-truth
#1년 전 오늘: 캐나다의 구글 소송
https://pluralistic.net/2024/12/03/clementsy/#can-tech

온라인: 브라이언 이노와 함께하는 "시적 기술(Poetic Technologies)" (데이비드 그레이버 연구소), 12월 8일
https://davidgraeber.institute/poetic-technologies-with-cory-doctorow-and-brian-eno/
코네티컷주 매디슨: RJ 줄리아 서점 『엔쉬티피케이션』 행사, 12월 8일
https://rjjulia.com/event/2025-12-08/cory-doctorow-enshittification
함부르크: 카오스 커뮤니케이션 콩그레스, 12월 27–30일
덴버: 태터드 커버 콜팩스 서점 『엔쉬티피케이션』 행사, 1월 22일
https://www.eventbrite.com/e/cory-doctorow-live-at-tattered-cover-colfax-tickets-1976644174937

『엔쉬티피케이션』 (Future Knowledge)
https://futureknowledge.transistor.fm/episodes/enshittification
우리는 실리콘밸리의 노예가 되었다 (Politics JOE)
엔쉬티피케이션이 인터넷을 어떻게 파괴하는가 (Frontline Club)
크리스티나 카파라와 함께하는 Escape Forward
https://escape-forward.com/2025/11/27/enshittification-of-our-digital-experience/
왜 모든 플랫폼은 당신을 배신하는가 (Trust Revolution)

『Canny Valley』: 플루럴리스틱을 위해 내가 만든 콜라주를 모은 한정판 소책자, 자가 출간, 2025년 9월
『Enshittification: Why Everything Suddenly Got Worse and What to Do About It』, Farrar, Straus, Giroux, 2025년 10월 7일 출간
https://us.macmillan.com/books/9780374619329/enshittification/
『Picks and Shovels』: 『Red Team Blues』의 후속작. PC 영웅 시대를 다룬다. Tor Books(미국), Head of Zeus(영국), 2025년 2월 출간
(https://us.macmillan.com/books/9781250865908/picksandshovels).
『The Bezzle』: 『Red Team Blues』의 후속작. 교도소 기술과 기타 사기를 다룬다. Tor Books(미국), Head of Zeus(영국), 2024년 2월 출간(http://the-bezzle.org).
『The Lost Cause』: 기후 비상사태 속 희망을 다룬 솔라펑크 소설. Tor Books(미국), Head of Zeus(영국), 2023년 11월 출간(http://lost-cause.org).
『The Internet Con』: 상호운용성과 빅테크를 다룬 논픽션(Verso), 2023년 9월 출간(http://seizethemeansofcomputation.org/). Book Soup에서 서명본 판매(https://www.booksoup.com/book/9781804291245).
『Red Team Blues』: "읽는 이를 붙잡아 두는 강렬한 스릴러. 다 읽고 나면 세상이 어떻게 돌아가는지 전보다 더 많이 알게 된다." Tor Books
http://redteamblues.com/.
『Chokepoint Capitalism: How to Beat Big Tech, Tame Big Content, and Get Artists Paid』 (레베카 깁린과 공저): 창작 노동 시장의 조작을 풀어내는 방법. Beacon Press/Scribe, 2022년 출간
https://chokepointcapitalism.com/

『Unauthorized Bread』: 난민, 토스터, DRM을 다룬 내 노벨라를 각색한 아동용 그래픽 노블, FirstSecond, 2026년 출간
『Enshittification, Why Everything Suddenly Got Worse and What to Do About It』(그래픽 노블판), Firstsecond, 2026년 출간
『The Memex Method』, Farrar, Straus, Giroux, 2026년 출간
『The Reverse-Centaur's Guide to AI』: 더 나은 AI 비평가가 되는 법을 다룬 짧은 책, Farrar, Straus and Giroux, 2026년 6월 출간

오늘의 주요 출처:
현재 집필 중인 것:
『The Reverse Centaur's Guide to AI』: 효과적인 AI 비평가가 되는 법을 다룬, Farrar, Straus and Giroux용 짧은 책. 법률 검토와 교열 완료.
『The Post-American Internet』: 트럼프주의 시대의 인터넷 정책을 다룬 짧은 책. 기획 단계.
DIY 인슐린을 다룬 『리틀 브라더』 단편: 기획 단계

이 글 – 연재 소설을 제외한 전부 – 은 크리에이티브 커먼즈 저작자표시 4.0 라이선스(CC BY 4.0)를 따른다. 이는, 상업적 이용을 포함해, 어떤 방식으로든 자유롭게 이용할 수 있다는 뜻이다. 단, 저자 코리 닥터로우를 명시하고, pluralistic.net 링크를 포함해야 한다.
https://creativecommons.org/licenses/by/4.0/
인용문과 이미지에는 이 라이선스가 적용되지 않는다. 이들은 저작권의 예외·제한 규정이나, 별도의 라이선스를 바탕으로 포함되어 있다. 사용 시 주의를 기울이기 바란다.
블로그(광고, 트래킹, 데이터 수집 없음):
뉴스레터(광고, 트래킹, 데이터 수집 없음):
https://pluralistic.net/plura-list
마스토돈(광고, 트래킹, 데이터 수집 없음):
미디엄(광고 없음, 유료벽):
트위터(대규모, 무제한, 제3자 감시와 광고):
텀블러(대규모, 무제한, 제3자 감시와 광고):
https://mostlysignssomeportents.tumblr.com/tagged/pluralistic
"인생이 너에게 SARS를 주면, 사사프릴라를 만들어라" - 조이 "아코디언 가이" 드빌라
주의 깊게 읽으시오: 이 글을 읽음으로써, 당신은 당신의 고용주를 대신하여, 내가 당신의 고용주, 그 파트너, 라이선서, 대리인, 양수인과 맺은 모든 비협상(non-negotiated) 합의, 라이선스, 서비스 약관, 슈링크랩, 클릭랩, 브라우즈랩, 비밀 유지, 영업비밀, 경업 금지, 허용 사용 정책("가짜 합의(BOGUS AGREEMENTS)")로부터 비롯되는 의무 및 권리 포기 조항을, 나에게서 모두 면책하는 데 동의하는 것이다. 이 면책은 나의 기존 권리와 특권을 해치지 않는 범위 내에서, 영원히(perpetuity) 유효하다. 또한 당신은, 당신의 고용주를 대신해 나를 모든 가짜 합의에서 해방시킬 법적 권한이 있음을 진술하는 것이다.
ISSN: 3066-764X