포스트

Anthropic vs. 펜타곤: AI 기업이 정부에 'NO'라고 할 수 있는가

Anthropic vs. 펜타곤: AI 기업이 정부에 'NO'라고 할 수 있는가

자율무기 거부 → 적국 낙인 → 법원 차단까지, 2026년 가장 중요한 AI 법적 분쟁의 전모

작성일: 2026년 3월 27일
출처: NPR, CNN, CNBC, AP, Fortune, The Hill, Axios, managerkim.com 등 종합


관련글

미 국방부와 앤트로픽의 AI 가드레일 갈등: 기술, 윤리, 국가안보의 충돌

개요

2026년 3월 26일, 미국 캘리포니아 북부 연방지방법원의 리타 린(Rita F. Lin) 판사는 역사적인 43쪽 분량의 판결문을 통해 미 국방부(펜타곤)가 AI 기업 Anthropic을 ‘공급망 안보 위협(supply chain risk)’으로 지정한 조치와, 트럼프 대통령이 모든 연방 기관에 내린 Anthropic 제품 사용 중단 명령을 전면 차단하는 예비 금지 명령(preliminary injunction)을 내렸다.

이 사건은 단순한 정부-기업 간 계약 분쟁을 넘어선다. AI 기업이 자체적인 윤리 원칙을 근거로 정부의 요구에 거부권을 행사할 수 있는지, 그리고 정부가 그 거부에 대해 어떤 방식으로 보복할 수 있는지를 가르는 법적 선례가 될 수 있는 사건이다. Fortune지가 “기업 살해 시도(attempted corporate murder)”라고 표현할 만큼, AI 산업 전체가 주목하는 재판이다.


1. 사건의 배경: 2억 달러짜리 파트너십이 충돌로

1-1. Anthropic과 국방부의 협력 관계

Anthropic은 오랫동안 미 연방정부의 신뢰받는 AI 파트너였다. 사건이 터지기 전까지만 해도 그랬다.

2025년 7월, Anthropic은 미 국방부(이하 DoD, 또는 당시 ‘Department of War’로도 불림)와 2억 달러(약 2,600억 원) 규모의 계약을 체결했다. 이 계약은 Claude AI 모델을 군사 목적에 활용하기 위한 것이었다. 더 나아가 Anthropic은 DoD의 기밀 네트워크에 AI 모델을 배포한 최초의 AI 기업이었으며, 기존 국방 시스템과의 통합 능력이 높이 평가받았다.

2025년 9월부터는 DoD의 AI 통합 플랫폼인 GenAI.mil에 Claude를 배포하기 위한 협상이 시작됐다. 여기서부터 균열이 생겼다.

1-2. 협상의 핵심 쟁점: “모든 합법적 용도”

DoD가 요구한 것은 하나였다. Claude를 “모든 합법적 용도(all lawful purposes)” 에 제한 없이 사용할 수 있게 해달라는 것이었다. 국방부는 특히 전시(wartime) 상황에서 시스템을 완전히 자유롭게 사용할 수 있어야 한다고 주장했다.

Anthropic은 이 요구에 원칙적으로 동의할 수 없었다. 두 가지 항목이 명시적으로 거부됐다.

Anthropic의 두 가지 레드라인(Red Line)

  1. 완전 자율무기(Fully Autonomous Weapons): 사람의 최종 판단 없이 AI가 스스로 공격 결정을 내리는 무기 시스템에 Claude를 사용하는 것. 이른바 ‘킬 체인(kill chain)’에서 인간이 빠지는 구조를 의미한다.

  2. 대규모 국내 감시(Domestic Mass Surveillance): AI가 미국 시민의 상업 데이터를 자동으로 수집하고 분석하는 시스템에 Claude를 활용하는 것.

Anthropic CEO 다리오 아모데이(Dario Amodei)는 CBS News와의 인터뷰에서 이렇게 말했다:

“이 선을 넘는 것은 미국의 가치에 반한다고 믿습니다. 우리는 미국의 가치를 지키고 싶었습니다.”

양측은 합의에 이르지 못했다. 그리고 2025년 말부터 협상은 공개적 충돌로 번지기 시작했다.


2. 국방장관의 보복: 전례 없는 ‘적국급’ 낙인

2-1. 헤그세스의 공개 공격

2026년 2월, 피트 헤그세스(Pete Hegseth) 국방장관은 X(구 트위터)에 게시물을 올리며 Anthropic을 “건방지다(sanctimonious)” 고 공개 비판했다. 다리오 아모데이는 “거짓말쟁이” 이자 “신 콤플렉스(God complex)를 가진 사람” 이라는 인신공격성 표현도 등장했다.

이는 단순한 언쟁으로 끝나지 않았다.

2-2. ‘공급망 안보 위협’ 지정 — 미국 기업 최초

헤그세스는 Anthropic을 ‘공급망 안보 위협(supply chain risk)’ 으로 공식 지정했다. 이 지정의 의미는 단순하지 않다.

  • 이 조치는 기존에 중국, 러시아 등 적성국 기업에만 적용되던 것이었다.
  • 미국 기업에 적용된 것은 역사상 처음이었다.
  • 이 지정이 발효되면, DoD와 협력하는 모든 방산 기업(Amazon, Microsoft, Palantir 포함)이 Claude를 사용하지 않는다는 것을 증명해야 했다. 즉, Anthropic과 거래하는 모든 기업이 군사 계약에서 배제될 위험에 처하게 된다.

국방부가 사용한 법적 근거는 두 가지였다: 10 U.S.C. § 325241 U.S.C. § 4713. 이 두 법적 근거가 서로 다른 관할 법원에서 다뤄져야 했기 때문에, Anthropic은 캘리포니아 연방법원과 워싱턴 D.C. 항소법원 두 곳에 각각 소송을 제기해야 했다.

2-3. 트럼프 대통령의 Truth Social 명령

헤그세스의 지정 직전, 트럼프 대통령은 Truth Social에 다음과 같이 올렸다:

“우리가 우리나라의 운명을 결정한다 — 실제 세상이 어떻게 돌아가는지 전혀 모르는 사람들이 운영하는 통제 불능의 급진 좌파 AI 회사가 아니라.”

그는 모든 연방 기관이 즉시 Anthropic 제품 사용을 중단하도록 명령했다. 국방부에는 6개월의 전환 기간이 주어졌지만, 실질적으로는 Claude를 정부에서 완전히 퇴출시키겠다는 선언이었다.

2-4. 국방부 내부 기록이 드러낸 진실

이 사건에서 가장 주목할 만한 점 중 하나는 판결문에서 드러난 국방부 내부 기록이다. 린 판사의 판결문에 따르면, 국방부 기록은 Anthropic이 “언론을 통해 적대적인 방식으로(hostile manner through the press)” 행동했다는 이유로 공급망 위험으로 지정됐음을 보여준다. 이는 안보 위협이 아니라, 언론 비판에 대한 보복임을 사실상 자인한 것이다.

국방부 측 변호사 에릭 해밀턴(Eric Hamilton)은 법원에서 DoD가 “Anthropic이 미래에 IT 시스템을 방해하거나 전복하는 행동을 할 수 있다는 우려를 갖게 됐다”고 주장했다. “Anthropic이 킬 스위치를 설치하거나 작동 방식을 바꾸면 어떻게 하느냐”는 것이었다. 이에 린 판사는 “그게 공급망 위험 지정을 정당화하는 꽤 낮은 기준처럼 보이는데요(‘That seems a pretty low bar’)”라고 받아쳤다.


3. 소송 제기와 법원의 판단

3-1. Anthropic의 소송 제기

2026년 3월 초, Anthropic은 미국 역사상 가장 강력한 AI 기업이 미국 정부를 상대로 낸 소송 중 하나를 제기했다. 핵심 주장은 세 가지였다.

  1. 수정헌법 제1조(표현의 자유) 위반: 정부의 계약 입장에 이의를 제기하는 공개적 발언에 대한 보복이다.
  2. 적법 절차(Due Process) 위반: Anthropic에 반론 기회를 주지 않았고, 법적 절차를 따르지 않았다.
  3. 실정법 위반: 해당 공급망 위험 지정 권한은 Anthropic 같은 미국 기업에 적용되는 법이 아니다.

Anthropic은 예비 금지 명령(preliminary injunction)을 통해 판결이 확정될 때까지 국방부의 조치를 일시 중단시켜 달라고 요청했다. 지정이 계속된다면 수십억 달러의 계약 손실과 회복 불가능한 평판 훼손이 발생한다는 것이 주된 이유였다.

3-2. 90분간의 심리 — 판사의 날선 질문들

3월 24일, 샌프란시스코 연방법원에서 90분 동안 진행된 구두 심리에서 린 판사는 정부 측에 날카로운 질문을 퍼부었다.

린 판사는 국방부 측 변호인에게 물었다:

“DoD의 관심사가 작전 지휘 체계의 무결성이라면, 국방부는 그냥 Claude 사용을 중단하면 된다. 왜 그 이상의 조치가 필요한가?”

그녀는 심리에서 이미 이 조치가 Anthropic을 “무력화하려는 시도처럼 보인다(looks like an attempt to cripple Anthropic)”고 표현하며 회의적인 시각을 드러냈다. 또한 정부 측이 “안보 우려”를 내세우면서도 내부적으로는 계약 협상을 우호적으로 진행하고 있었다는 모순을 지적했다.

3-3. 지지 의견서(Amicus Brief)

이 재판에는 업계와 시민단체도 참여했다.

  • 마이크로소프트(Microsoft): 기업의 표현의 자유와 적법 절차가 위협받고 있다는 우려를 담은 의견서를 제출했다.
  • ACLU(미국시민자유연합, American Civil Liberties Union): 헌법적 권리 침해를 강조하며 Anthropic을 지지했다.
  • 퇴역 군 지도자들: 자율무기와 관련된 우려의 정당성을 지지하는 의견을 냈다.

이는 단순히 Anthropic만의 문제가 아니라, AI 산업 전체와 미국 헌정 질서에 관한 문제로 인식됐음을 보여준다.


4. 판결: 43쪽의 ‘오웰적 보복’ 비판

4-1. 예비 금지 명령 발령

2026년 3월 26일(목), 리타 린 판사는 예비 금지 명령을 내렸다. 이 명령은 다음 두 가지를 즉시 차단했다:

  1. DoD의 Anthropic ‘공급망 안보 위협’ 지정
  2. 트럼프 대통령의 연방 기관 Anthropic 제품 사용 중단 지시

린 판사는 바이든 전 대통령이 임명한 판사로, 캘리포니아 연방 법원에서 근무하고 있다.

4-2. 판결문의 핵심 문구들

43쪽의 판결문에는 정부 행동을 강도 높게 비판하는 문장들이 담겨 있다.

“오웰적 발상”에 대한 비판:

“미국 기업이 정부와 의견이 다르다는 이유로 잠재적 적국이자 파괴자로 낙인찍힐 수 있다는 오웰적 발상은 어떤 법률로도 뒷받침되지 않습니다.”

수정헌법 제1조 보복에 대한 판단:

“Anthropic이 정부의 계약 입장을 공개적으로 비판한 것에 대한 처벌은 전형적인 위헌적 수정헌법 제1조(표현의 자유) 보복입니다.”

국방부의 실제 의도에 대한 판단:

“이 광범위한 조치들은 정부가 주장하는 국가 안보 이익을 향해 있지 않습니다. 국방부 기록에 따르면 Anthropic을 공급망 위험으로 지정한 이유는 Anthropic의 ‘언론을 통한 적대적 방식’ 때문입니다.”

처벌 설계 판단:

“만약 관심사가 작전 지휘 체계의 무결성이라면, 국방부는 그냥 Claude 사용을 중단하면 됩니다. 그 대신, 이 조치들은 Anthropic을 처벌하기 위해 설계된 것으로 보입니다.”

적법 절차 위반에 대한 판단:

“피고들의 Anthropic에 대한 ‘공급망 위험’ 지정은 법에 위반될 가능성이 높으며, 자의적이고 변덕스럽습니다.”
“국방부는 Anthropic의 사용 제한 요구로부터 Anthropic이 잠재적 방해자가 될 수 있다는 합리적인 추론 근거를 제시하지 못합니다.”

4-3. 판결의 범위와 한계

린 판사는 판결의 범위를 명확히 했다. 이번 판결은 다음을 의미하지 않는다:

  • 국방부가 Claude를 계속 사용해야 한다는 것이 아니다.
  • 국방부가 다른 AI 제공업체로 전환하는 것을 막는 것도 아니다.
  • 군사 AI 활용의 적절한 범위에 관한 공공 정책 논쟁을 해결하는 것도 아니다.

“이 공공 정책 질문은 이 소송에서 이 법원이 답해야 할 것이 아닙니다. 어떤 AI 제품을 사용할지는 국방부의 고유 권한입니다.”

이 판결은 오직 한 가지를 말하고 있다: 정부가 기업의 표현을 이유로 보복적으로 ‘적성국 기업’ 딱지를 붙이는 것은 위헌이며 위법이다.

4-4. 7일간의 유예

린 판사는 정부가 항소할 시간을 주기 위해 7일간 판결 집행을 유예했다. 만약 정부가 이 기간 내에 항소법원에 긴급 구제(stay)를 신청하면, 법적 싸움은 더 길어질 수 있다. 별도로 진행되는 워싱턴 D.C. 연방 항소법원의 소송도 아직 결론이 나지 않았다.


5. Anthropic의 입장과 선택의 무게

5-1. 아모데이의 반응

Anthropic은 판결 직후 공식 성명을 발표했다:

“법원이 신속하게 움직여주신 것에 감사드리며, Anthropic이 본안에서도 승소할 가능성이 높다는 법원의 판단에 기쁘게 생각합니다. 이 사건은 Anthropic, 고객, 파트너를 보호하기 위해 필요했지만, 우리의 초점은 모든 미국인이 안전하고 신뢰할 수 있는 AI의 혜택을 받을 수 있도록 정부와 생산적으로 협력하는 것에 있습니다.”

아모데이는 이번 싸움이 처음이 아니라고 강조했다. 그는 이전에도 중국 공산당 연계 기업의 Claude 사용을 막기 위해 수억 달러의 매출을 포기했다고 밝혔다. 이번 결정도 그 연장선상에 있다.

5-2. 재정적 대가

이번 선택의 무게는 숫자로도 가늠할 수 있다.

  • Anthropic의 현재 기업가치: 3,800억 달러(약 494조 원)
  • Claude Code만으로 올리는 연간 매출: 25억 달러(약 3.25조 원)
  • 포기한 국방부 계약 규모: 2억 달러(약 2,600억 원)
  • TIME지가 Anthropic을 평가한 수식어: “세계에서 가장 파괴적인 기업(Most Disruptive Company in the World)”

단기적으로 2억 달러짜리 계약과 추가적인 연방 계약 기회를 잃었지만, Anthropic은 법적·윤리적 원칙을 지키는 것이 장기적으로 더 중요하다고 판단했다.


6. 산업적·법적 의미

6-1. AI 기업이 얻은 법적 보호

이번 판결은 AI 기업들에게 중요한 선례를 남겼다. 기업이 자체적인 AI 안전 원칙을 유지하기 위해 정부의 요구를 거부했을 때, 정부가 행정 권한을 남용하여 보복하는 것은 헌법 위반이라는 점이 명확해졌다.

더 나아가, 공개적인 비판이나 언론 활동도 표현의 자유로 보호된다. 이는 다른 AI 기업들이 정부와의 계약 협상에서 자신의 윤리 원칙을 공개적으로 밝힐 수 있는 공간을 넓혀준다.

6-2. 방산 계약 생태계에 대한 파급 효과

이번 사건은 방산 계약 생태계에도 직접적인 영향을 미쳤다. ‘공급망 위험’ 지정이 발효됐더라면, Amazon, Microsoft, Palantir 등 Anthropic과 협력하는 모든 주요 방산 업체들이 군사 계약에서 Claude를 사용하지 않는다는 것을 증명해야 했다. 이는 사실상 Anthropic을 AI 공급망에서 완전히 배제하는 효과를 노린 것이었다.

6-3. ‘킬 스위치’ 논쟁

이 사건에서 흥미로운 부분은 국방부 측 변호사가 제기한 “킬 스위치” 논리다. “Anthropic이 미래에 자사 소프트웨어에 킬 스위치를 설치해 군사 시스템을 마비시킬 수 있다”는 가상 시나리오를 안보 위협의 근거로 삼았다.

린 판사는 이를 “꽤 낮은 기준”이라며 일축했다. 그 논리대로라면 소프트웨어를 공급하는 거의 모든 기업이 잠재적 안보 위협이 될 수 있기 때문이다.

6-4. AI와 자율무기에 관한 국제적 논쟁

Anthropic의 레드라인 중 하나인 ‘완전 자율무기’는 국제 사회에서도 첨예하게 논쟁되고 있는 주제다. ‘킬러 로봇(Lethal Autonomous Weapons Systems, LAWS)’에 인간의 판단이 반드시 개입해야 하는가에 대한 국제적 논의가 진행 중인 가운데, 이번 사건은 민간 AI 기업이 이 논쟁에서 어떤 역할을 해야 하는지를 직접적으로 보여주는 사례다.


7. 앞으로의 전망

7-1. 병행 진행 중인 두 가지 소송

현재 두 개의 별도 법적 절차가 동시에 진행 중이다.

  1. 캘리포니아 연방법원 (리타 린 판사): 예비 금지 명령이 내려졌으며, 본안 판결까지는 수개월이 걸릴 수 있다.
  2. 워싱턴 D.C. 연방 항소법원: 헤그세스가 공급망 위험 지정에 사용한 다른 법적 권한(10 U.S.C. § 3252)에 대한 별도 소송이 진행 중이다.

7-2. 정부의 항소 가능성

정부는 7일 내에 항소법원에 린 판사의 명령에 대한 긴급 집행 정지(stay)를 신청할 수 있다. 트럼프 행정부의 법적 공세 패턴을 볼 때, 항소 가능성이 높다. 이 사건이 대법원까지 갈 가능성도 배제할 수 없다.

7-3. Claude 사용자에게 미치는 영향

현재로서는 일반 Claude 사용자에게 직접적인 변화는 없다. 오히려 이번 판결로 Anthropic이 자신의 안전 가이드라인을 유지할 수 있는 법적 근거가 마련됐다는 점에서 긍정적이다.

장기적으로는 연방 정부가 Anthropic의 서비스를 사용하는 방식, 그리고 군사 AI 계약의 조건에 관한 규정들이 재정립될 가능성이 높다.

7-4. 다른 AI 기업들에 대한 함의

이 사건은 OpenAI, Google DeepMind, Meta AI 등 다른 AI 기업들도 주시하고 있다. 향후 정부와의 계약 협상 시 윤리 원칙을 어느 선까지 고수할 수 있는지에 관한 업계 표준을 형성하는 계기가 될 수 있다.


8. 이 사건이 중요한 이유: 세 가지 차원

차원 1: 헌법적 차원

미국 헌정 역사에서 정부가 자국 기업을 ‘잠재적 적국’으로 분류하는 것이 수정헌법 제1조의 보복 금지 원칙을 위반한다는 것이 법원에 의해 확인됐다. 이는 정부의 행정 권력 남용에 대한 중요한 제동 장치가 될 수 있다.

차원 2: AI 거버넌스 차원

AI 기업이 ‘안전 원칙’을 이유로 정부의 요구를 거부할 수 있는가라는 질문은 AI 거버넌스의 핵심 문제다. 이번 판결은 그 거부가 법적으로 보호받을 수 있음을 시사한다. AI 기술이 군사·안보 영역으로 급격히 확산되는 시대에, 기업이 자체 윤리 가이드라인을 유지할 공간이 법적으로 인정됐다.

차원 3: 기업 독립성 차원

정부가 거대 계약을 무기로 기업의 의사 결정에 개입하려 할 때, 그 압력에 저항할 수 있는 법적 근거가 생겼다. 이는 AI뿐 아니라 모든 첨단 기술 분야 기업에 적용될 수 있는 원칙이다.


에필로그: 아직 끝나지 않은 싸움

리타 린 판사의 판결은 강력하고 명쾌했지만, 이것이 끝이 아니다. 본안 판결은 수개월이 걸릴 수 있고, 항소심이 이어질 수 있으며, 워싱턴 D.C.의 별도 소송도 진행 중이다.

하지만 한 가지는 분명해졌다. Anthropic은 3,800억 달러 기업가치에도 불구하고, 2억 달러 계약이 걸린 상황에서도, 트럼프 대통령과 헤그세스 국방장관의 압박에도 불구하고 두 가지 원칙을 지켰다: 완전 자율무기에 No, 대규모 국내 감시에 No.

그리고 적어도 지금까지는, 법원이 그 선택의 편에 섰다.

“미국 기업이 정부와 의견이 다르다는 이유로 잠재적 적국이자 파괴자로 낙인찍힐 수 있다는 오웰적 발상은 어떤 법률로도 뒷받침되지 않습니다.”
— 리타 F. 린 판사, 미국 캘리포니아 북부 연방지방법원, 2026년 3월 26일


주요 출처

매체제목URL
NPRJudge temporarily blocks Trump administration’s Anthropic banhttps://www.npr.org/2026/03/26/nx-s1-5762971
CNNJudge blocks Pentagon’s effort to ‘punish’ Anthropichttps://www.cnn.com/2026/03/26/business/anthropic-pentagon-injunction
CNBCAnthropic wins preliminary injunction in DOD fighthttps://www.cnbc.com/2026/03/26/anthropic-pentagon-dod-claude-court-ruling.html
AP / Press DemocratFederal judge temporarily blocks Pentagon from branding Anthropichttps://www.pressdemocrat.com/2026/03/26/pentagon-ai-anthropic-supply-chain-risk/
FortuneU.S. judge blocks Trump’s ‘Orwellian notion’https://fortune.com/2026/03/26/us-judge-blocks-anthropic-ban-supply-chain-risk
The HillJudge blocks Pentagon’s supply chain risk designationhttps://thehill.com/policy/technology/5803486-anthropic-lawsuit-pentagon-claude/
AxiosJudge temporarily blocks Pentagon’s ban on Anthropichttps://www.axios.com/2026/03/26/judge-temporarily-blocks-pentagon-ban-anthropic
SiliconANGLEJudge issues block on Pentagon to label Anthropic as supply chain riskhttps://siliconangle.com/2026/03/26/judge-issues-block-pentagon-label-anthropic
TIMEHow Anthropic Became the Most Disruptive Company in the Worldhttps://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/
managerkim.comClaude 만든 Anthropic, AI 자율무기 거부했다가 ‘적국’으로 찍혔는데 법원이 막았습니다https://managerkim.com/news/2026-03-27-anthropic-pentagon-claude-weapons-ban-court-ruling

이 문서는 2026년 3월 27일 기준의 공개 보도를 바탕으로 작성됐습니다. 소송은 현재 진행 중이며 상황은 변동될 수 있습니다.

이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.