다리오 아모데이가 전쟁부 및 정보공동체와의 협력, 그리고 민주적 가치와 기술적 한계를 이유로 두 가지 용도에 대한 안전장치를 유지해야 한다는 입장을 설명합니다.
URL: https://www.anthropic.com/news/statement-department-of-war
저는 AI를 활용해 미국과 다른 민주주의 국가들을 방어하고, 권위주의적 적대 세력을 격퇴하는 것이 실존적으로 중요하다고 굳게 믿습니다.
이에 따라 Anthropic은 전쟁부와 정보공동체에 우리 모델을 배치하기 위해 선제적으로 노력해 왔습니다. 우리는 미국 정부의 기밀(분류) 네트워크에 모델을 배치한 최초의 프론티어 AI 기업이었고, 국립 연구소에 이를 배치한 최초의 기업이었으며, 국가안보 고객을 위해 맞춤형 모델을 제공한 최초의 기업이었습니다. Claude는 정보 분석, 모델링 및 시뮬레이션, 작전 계획, 사이버 작전 등 임무 핵심 애플리케이션에 사용되며 전쟁부와 다른 국가안보 기관 전반에 걸쳐 광범위하게 배치되어 있습니다.
Anthropic은 회사의 단기적 이익에 반하더라도 미국의 AI 선도 지위를 지키기 위해 행동해 왔습니다. 우리는 중국 공산당과 연계된 기업들에 의한 Claude 사용을 차단하기 위해 수억 달러 규모의 매출을 포기하기로 결정했습니다(이들 중 일부는 전쟁부가 중국 군사 기업으로 지정한 바 있습니다). 또한 Claude를 악용하려 했던 중국 공산당 지원 사이버 공격을 차단했으며, 민주주의 진영의 우위를 보장하기 위해 칩에 대한 강력한 수출 통제를 옹호해 왔습니다.
Anthropic은 군사적 결정을 내리는 주체가 민간 기업이 아니라 전쟁부라는 점을 이해하고 있습니다. 우리는 특정 군사 작전에 대해 이의를 제기하거나, ad hoc 방식으로 우리 기술의 사용을 제한하려 시도한 적이 결코 없습니다.
그러나 제한된 몇몇 경우에 있어서는, AI가 민주적 가치를 수호하기보다 오히려 훼손할 수 있다고 믿습니다. 또한 일부 용도는 오늘날의 기술이 안전하고 신뢰성 있게 수행할 수 있는 범위를 단순히 벗어납니다. 이러한 두 가지 사용 사례는 전쟁부와의 계약에 포함된 적이 없으며, 지금도 포함되어서는 안 된다고 우리는 믿습니다.
대규모 국내 감시. 우리는 합법적인 해외 정보 및 방첩 임무에서 AI를 사용하는 것을 지지합니다. 그러나 이 시스템을 대규모 국내 감시에 사용하는 것은 민주적 가치와 양립할 수 없습니다. AI 기반 대규모 감시는 우리의 기본적 자유에 심각하고 새로운 위험을 제기합니다. 이러한 감시가 현재 합법인 범위가 있다면, 그것은 법이 AI의 급속히 성장하는 역량을 아직 따라잡지 못했기 때문일 뿐입니다. 예를 들어 현행 법제하에서 정부는 영장 없이도 공개 출처로부터 미국인의 이동, 웹 브라우징, 결사(교류) 관계에 대한 상세 기록을 구매할 수 있습니다. 이 관행은 정보공동체가 프라이버시 우려를 제기한다는 점을 인정한 바 있으며, 의회에서도 초당적 반대를 불러왔습니다. 강력한 AI는 이렇게 흩어져 있고 개별적으로는 무해해 보이는 데이터를 자동으로, 그리고 대규모로 결합해 어떤 개인의 삶에 대한 포괄적 그림을 만들어내는 것을 가능하게 합니다.
완전 자율 무기. 오늘날 우크라이나에서 사용되는 것과 같은 부분 자율 무기는 민주주의를 방어하는 데 필수적입니다. 인간을 완전히 고리에서 배제하고 표적 선정 및 교전을 자동화하는 완전 자율 무기 역시 국가 방위에 결정적 역할을 할 수 있습니다. 그러나 현재의 프론티어 AI 시스템은 완전 자율 무기를 구동하기에 신뢰성이 충분하지 않습니다. 우리는 미국의 전투원과 민간인을 위험에 빠뜨리는 제품을 알면서 제공하지 않을 것입니다. 우리는 이러한 시스템의 신뢰성을 개선하기 위한 연구개발(R&D)에서 전쟁부와 직접 협력하겠다고 제안했지만, 그들은 이 제안을 받아들이지 않았습니다. 또한 적절한 감독 없이 완전 자율 무기는 고도로 훈련된 전문 병력이 매일 보여주는 결정적 판단을 행사할 수 있다고 믿기 어렵습니다. 이들은 적절한 안전장치와 함께 배치되어야 하지만, 그러한 장치는 오늘날 존재하지 않습니다.
우리가 아는 한, 이 두 가지 예외는 지금까지 우리 군 내에서 우리 모델의 도입과 사용을 가속하는 데 장애가 되지 않았습니다.
전쟁부는 성명을 통해, 위에 언급한 경우에 “모든 합법적 사용(any lawful use)”에 동의하고 안전장치를 제거하는 AI 기업하고만 계약하겠다고 밝혔습니다. 또한 우리가 이러한 안전장치를 유지할 경우 자사 시스템에서 우리를 제거하겠다고 위협했습니다. 더 나아가, 그들은 우리를 “공급망 위험(supply chain risk)”으로 지정하겠다고도 위협했는데—이는 미국의 적대국에 붙이는 꼬리표로, 이전에는 미국 기업에 적용된 적이 없습니다—그리고 국방물자생산법(Defense Production Act)을 발동해 안전장치 제거를 강제하겠다고 했습니다. 이 두 가지 위협은 본질적으로 서로 모순됩니다. 하나는 우리가 보안 위험이라고 낙인찍는 반면, 다른 하나는 Claude가 국가안보에 필수적이라고 간주하기 때문입니다.
그럼에도 이러한 위협은 우리의 입장을 바꾸지 못합니다. 우리는 양심상 그들의 요청에 동의할 수 없습니다.
전쟁부가 그들의 비전에 가장 부합하는 계약업체를 선택하는 것은 그들의 권한입니다. 그러나 Anthropic의 기술이 우리 군에 제공하는 상당한 가치를 고려할 때, 우리는 그들이 재고하기를 바랍니다. 우리의 강한 선호는, 우리가 요청하는 두 가지 안전장치를 유지한 채로 전쟁부와 우리 전투원들을 계속 지원하는 것입니다. 전쟁부가 Anthropic을 퇴출(offboard)하기로 선택한다면, 우리는 진행 중인 군사 계획, 작전, 기타 핵심 임무에 어떤 차질도 없도록 다른 제공업체로의 원활한 전환을 지원하겠습니다. 우리의 모델은 필요한 기간 동안 우리가 제안한 포괄적 조건 하에서 제공될 것입니다.
우리는 미국의 국가안보를 지원하기 위한 우리의 작업을 계속할 준비가 되어 있습니다.