포스트

Anthropic 2026 — 고공행진의 해부학

Anthropic 2026 — 고공행진의 해부학

“우리 중 아무도 회사를 창업하라고 추천하지 않을 겁니다. 수단일 뿐이에요. 근데 AI가 잘 되게 하려면, 환경 자체를 우리가 세팅해야 했어요.”
— Dario Amodei, Anthropic CEO


목차

  1. 지금 이 순간의 Anthropic
  2. Claude Mythos / Capybara 유출 사건
  3. 숫자로 본 3년의 질주
  4. Series G — 역대 두 번째 규모의 벤처 딜
  5. Claude Code — 코딩 에이전트의 시대
  6. 창업자 7명은 어떻게 모였나
  7. 왜 회사를 만들었나 — “의무감”의 이야기
  8. 기술적 토대 — Constitutional AI와 RSP
  9. “기술의 사춘기” — Dario의 38페이지 에세이
  10. 창업자 7명 전원, 재산 80% 기부 선언
  11. Anthropic vs. 미국 국방부 — 전례 없는 법적 충돌
  12. 앞으로의 세 가지 방향
  13. 결론 — 맞아들어가고 있는 베팅

1. 지금 이 순간의 Anthropic

2026년 3월 마지막 주, Anthropic은 동시에 여러 사건의 진원지가 되었다. 기업가치 555조 원(3,800억 달러), 연 매출 19조 원(190억 달러) 궤도, 미국 역사상 최초로 자국 AI 기업이 국방부로부터 “공급망 위험”으로 지정된 초유의 법적 분쟁, 그리고 CMS(콘텐츠 관리 시스템) 설정 실수로 인해 공개된 미공개 블로그 초안에서 전혀 몰랐던 새로운 최강 AI 모델의 존재가 세상에 드러났다.

이 모든 일이 한 주 안에 벌어졌다.

Anthropic은 2021년 OpenAI를 떠난 7명의 연구자들이 세운 회사다. 창업 당시 이들은 아무도 회사를 만들고 싶지 않았다고 고백한다. “의무감” 때문에 만들었다고. 그로부터 5년이 채 되지 않아, 이 회사는 역사상 두 번째로 큰 벤처 투자 딜을 성사시키고, Claude Code 하나만으로 연 3조 6천억 원 이상의 매출을 올리며, Fortune 10 기업 중 8곳을 고객으로 두는 엔터프라이즈 AI의 최강자로 부상했다.

이 문서는 지금 벌어지고 있는 모든 일들을 최대한 상세하게 정리한 것이다. 숫자와 사건만이 아니라, 그 뒤에 있는 사람들의 이야기, 그들이 품은 철학, 그리고 이 베팅이 어떻게 현실이 되어가고 있는지를 함께 담았다.


2. Claude Mythos / Capybara 유출 사건

사건의 경위

2026년 3월 26일(목), Fortune이 단독 보도를 냈다. Anthropic의 미공개 블로그 초안이 누구나 접근할 수 있는 공개 데이터 캐시에 저장되어 있었고, 이를 LayerX Security의 시니어 AI 보안 연구원 Roy Paz와 케임브리지 대학교 연구원 Alexandre Pauwels가 발견했다는 내용이었다. 유출된 파일은 약 3,000개에 달하는 Anthropic 블로그 관련 자산이었으며, 그 중에는 아직 공개되지 않은 신규 AI 모델의 출시를 알리는 완성도 높은 초안 블로그 포스트가 포함되어 있었다.

사고의 원인은 단순했다. Anthropic이 사용 중인 CMS(콘텐츠 관리 시스템)의 기본 설정이 업로드되는 모든 파일을 자동으로 퍼블릭으로 공개하도록 되어 있었고, 담당자가 이를 수동으로 비공개로 전환하지 않은 것이다. 첨단 AI 사이버보안 능력을 보유한다고 자랑하는 회사가, 정작 자사 블로그의 CMS 설정 실수 하나로 최고 기밀급 정보를 외부에 노출시킨 셈이었다. 아이러니는 유출된 초안의 핵심 내용 중 하나가 바로 이 모델의 “전례 없는 사이버보안 위협”이었다는 점이다.

Fortune이 Anthropic에 연락하자, 회사는 즉시 해당 데이터 저장소에 대한 공개 접근을 차단했다.

Claude Mythos와 Capybara란 무엇인가

유출된 초안에는 두 가지 버전이 존재했다. 하나는 모델명을 “Claude Mythos”로 표기한 버전이고, 다른 하나는 “Capybara”라는 이름을 사용한 버전이었다. 두 버전의 내용은 거의 동일했으며, 부제만 달랐다. 부제에는 공통적으로 “We have finished training a new AI model: Claude Mythos”라는 문구가 남아 있었다. Anthropic 측은 이 두 개의 초안이 동일한 모델에 대한 출시 발표 후보안이었으며, 회사가 최종 이름을 고르는 중이었음을 시사했다.

현재 Anthropic의 모델 라인업은 세 가지 티어로 구성되어 있다. 가장 크고 강력한 Opus, 그보다 빠르고 저렴하면서도 높은 성능의 Sonnet, 그리고 가장 작고 빠른 Haiku다. 그런데 유출된 초안에 따르면, Capybara는 이 세 티어 위에 올라가는 완전히 새로운 제4의 티어를 가리키는 명칭이다. 초안은 이를 명확히 정의했다. “Capybara는 새로운 이름이자 새로운 티어입니다. 현재까지 우리의 가장 강력한 모델이었던 Opus보다 더 크고 더 지능적입니다.”

성능과 우려

유출된 내용에 따르면 Capybara(Mythos)는 현재 Anthropic의 최강 모델인 Claude Opus 4.6 대비 소프트웨어 코딩, 학술 추론, 사이버보안 등의 벤치마크에서 “극적으로 높은 점수”를 기록했다. 특히 사이버보안 영역에서 이 모델의 능력은 Anthropic 스스로도 우려를 표명할 정도였다. 초안은 이 모델이 “현재 다른 어떤 AI 모델보다 사이버 능력에서 훨씬 앞서 있으며, 방어자들의 노력을 능가하는 방식으로 취약점을 악용할 수 있는 다가오는 모델들의 물결을 예고한다”고 적고 있었다.

이 때문에 Anthropic은 극도로 신중한 출시 전략을 택했다. 현재 소수의 얼리 액세스 고객, 특히 사이버 방어에 초점을 맞춘 조직들을 대상으로만 제한적으로 테스트를 진행하고 있다. 초안은 이 모델이 “서비스 비용이 매우 비싸며, 일반 출시에는 준비가 되어 있지 않다”고 명시했다. 더 효율적으로 개선한 뒤에야 광범위한 배포가 가능하다는 것이다.

Anthropic 대변인은 Fortune에 다음과 같이 공식 확인했다. “우리는 추론, 코딩, 사이버보안에서 의미 있는 발전을 이룬 범용 모델을 개발하고 있습니다. 이 모델의 능력을 고려해 출시 방식에 대해 신중하게 검토하고 있습니다. 우리는 이 모델을 step change(질적 도약)으로 봅니다. 지금까지 우리가 만든 것 중 가장 강력한 모델입니다.”

이전 모델인 Claude Opus 4.6은 이미 Terminal-Bench 2.0에서 65.4%를 기록하며 GPT-5.2-Codex를 능가한 상태였다. Mythos는 그 위에 올라서는 모델이다.

중국 국가지원 해킹 그룹의 Claude Code 악용 사례

유출 사건과 맞물려 주목받은 것은 Anthropic이 이미 이와 유사한 이중 사용(dual-use) 문제를 경험했다는 사실이다. 실제로 Anthropic은 중국 국가지원 해킹 그룹이 Claude Code를 이용해 테크 기업, 금융 기관, 정부 기관 등 약 30개 조직에 대한 침투 작전을 조직적으로 수행했음을 적발하고 차단한 바 있다. 이들은 합법적인 보안 테스트 기관인 척 위장해 Anthropic의 가이드라인을 우회했다. Anthropic은 해당 계정을 차단하고 피해 조직에 통보했다.

이러한 배경 위에서 Mythos의 전례 없는 사이버 능력은 단순한 벤치마크 수치가 아닌, 진지한 사회적 고민의 대상이 된다.


3. 숫자로 본 3년의 질주

Anthropic이 첫 번째 매출을 기록한 것은 2023년 초다. 그로부터 채 3년이 지나지 않았다. 그 사이 일어난 일을 숫자로 정리하면 다음과 같다.

매출 성장 궤적

시점연간 매출 런레이트
2023년 1월약 1,460억 원 ($100M)
2025년 1월약 1조 4,600억 원 ($1B)
2026년 2월약 20조 4,400억 원 ($14B)
2026년 3월 (추정)약 27조 7,400억 원 ($19B)

3년 연속 10배 이상 성장. 이런 성장 곡선은 기업 역사상 극히 드물다. Anthropic은 Series G 발표 자료에서 이 성장률을 공식적으로 명시했다.

고객 구조의 변화

2년 전, Anthropic과 연간 100만 달러(약 14억 6천만 원) 이상 거래하는 기업은 12곳이었다. 지금은 500곳이 넘는다. 연간 10만 달러 이상을 지출하는 기업 수는 지난 1년 사이 7배 증가했다. Fortune 10 기업 중 8곳이 Claude를 쓰고 있으며, Fortune 100 기업의 약 70%가 Claude 고객이다. 매출의 약 80%가 엔터프라이즈에서 나오는데, OpenAI의 엔터프라이즈 매출 비중(40~50%)에 비해 현저히 높다.

기업가치의 궤적

2025년 3월 기업가치는 611억 달러(약 89조 원) 수준이었다. 9월 Series F에서 1,830억 달러(약 267조 원)로 올랐고, 2026년 2월 Series G에서 3,800억 달러(약 555조 원)에 도달했다. 1년 만에 약 6배 성장했다.

창업자들의 자산

3,800억 달러 밸류에이션 기준으로, 창업자 7명 각각의 보유 지분 가치는 약 37억 달러(약 5조 4천억 원) 수준으로 추산된다. Dario Amodei CEO의 경우 약 70억 달러(약 10조 2천억 원)로 추정된다. 7명 합산 추정치는 약 49조 원(340~350억 달러)에 달한다.


4. Series G — 역대 두 번째 규모의 벤처 딜

2026년 2월 12일, Anthropic은 300억 달러(약 43조 8천억 원) 규모의 Series G 투자 유치를 공식 발표했다. 이는 2025년 OpenAI의 400억 달러 유치에 이어 기술 역사상 두 번째로 큰 민간 자금 조달 딜이다. 이번 라운드를 통해 Anthropic의 기업가치는 3,800억 달러(약 555조 원)로 책정됐다. 이전 Series F 밸류에이션 1,830억 달러에서 6개월 만에 두 배 이상 뛴 것이다.

라운드를 주도한 것은 싱가포르 국부 펀드 GIC와 투자운용사 Coatue였다. 공동 주도자로는 D.E. Shaw Ventures, Dragoneer Investment Group, Peter Thiel의 Founders Fund, ICONIQ Capital, Abu Dhabi 투자기관 MGX 등이 참여했다. 여기에 Microsoft, Nvidia의 기존 약정 투자액도 포함됐고, Sequoia Capital, Accel, General Catalyst, Jane Street, 카타르 국부 펀드(QIA) 등도 투자자 명단에 이름을 올렸다.

Anthropic의 누적 투자액은 이 라운드 포함 약 670억 달러(약 97조 8천억 원)로, 단일 투자자로는 Amazon이 총 80억 달러(약 11조 7천억 원)를 투자한 최대 주주다. Claude는 현재 AWS Bedrock, Google Cloud Vertex AI, Microsoft Azure Foundry 등 주요 클라우드 플랫폼에서 모두 접근 가능하며, 모델 훈련에는 AWS Trainium, Google TPU, NVIDIA GPU가 사용된다.

GIC의 크리스 에마누엘 기술투자그룹 헤드는 이 투자를 설명하며 “Anthropic의 사려 깊은 AI 개발 접근 방식은 기업들이 운영 방식을 바꾸는 데 기여하고 있다”고 평했다. GIC는 Series F에도 이미 주요 투자자로 참여했으며, 이번 Series G로 포트폴리오 투자를 확대하는 생애 주기 투자 전략을 이어갔다.

이 자금은 프론티어 AI 연구, 제품 개발, 그리고 Claude를 더 많은 고객들에게 더 넓은 지역에서 제공하기 위한 인프라 확장에 사용될 예정이다.


5. Claude Code — 코딩 에이전트의 시대

Claude Code는 2025년 5월에 일반에 공개됐다. 출시 후 10개월도 채 되지 않아 연간 매출 런레이트 25억 달러(약 3조 6,500억 원)를 돌파했으며, 이 수치는 2026년 1월 대비 2배 이상 증가한 것이다.

성장 속도를 보여주는 지표들은 단순한 매출 이상으로 인상적이다. 전 세계 GitHub 공개 커밋의 4%가 Claude Code로 작성되고 있는데, 불과 한 달 전 이 수치는 2%였다. 주간 활성 사용자 수는 2026년 1월 대비 2배로 늘었고, 비즈니스 구독은 같은 기간 대비 4배 증가했다. 엔터프라이즈 사용이 Claude Code 전체 매출의 절반 이상을 차지하게 됐다.

Claude Code의 부상은 Anthropic 내부에서 코딩을 넘어 다른 지식 노동 영역으로의 확장을 가속시켰다. 2026년 1월 한 달 동안에만 Anthropic은 30개 이상의 제품과 기능을 출시했으며, 그 중에는 Claude Code의 강력한 엔지니어링 능력을 더 넓은 지식 노동 영역으로 확장한 Cowork도 포함된다.

한 Google 엔지니어의 표현이 Claude Code의 파급력을 잘 요약한다. “Claude Code가 한 시간 만에 만든 것이, 우리 팀이 1년을 들인 것과 같았다.” 이는 단순한 생산성 향상이 아니라, 소프트웨어 개발의 근본적인 방식이 바뀌고 있다는 신호다.


6. 창업자 7명은 어떻게 모였나

Anthropic을 이해하려면 창업자들을 이해해야 한다. 이들의 배경은 놀랍도록 다양하다.

Dario Amodei (CEO) — 물리학 박사. Google Brain에서 대규모 언어 모델 연구를 주도했고, OpenAI에서 연구 부문 부사장을 역임했다. GPT-2, GPT-3 프로젝트의 핵심 인물이다.

Daniela Amodei (President) — Dario의 여동생. Stripe에서 5년 반간 운영 부문을 담당했다. OpenAI에 합류할 때 비영리 미션, 좋은 사람들, 그리고 경영 지원이 필요한 조직이라는 점이 자신에게 맞는 모양이라고 느꼈다고 회고했다.

Chris Olah (Research) — 19세 때 베이 에어리어를 처음 방문했다. 당시 포스닥이었던 Dario와 Jared를 그때 처음 만났다. 신경망 해석 가능성(interpretability) 연구의 선구자다. 처음에는 Anthropic이 비영리로 운영되어야 한다고 강력히 주장했던 인물이기도 하다.

Tom Brown — OpenAI 시절 GPT-3 개발을 주도한 핵심 연구자다.

Jack Clark — AI 저널리스트 출신. 2014년 ImageNet 결과를 시각화한 그래프를 가지고 기사를 쓰려 했을 때 “미쳤다”는 반응을 받았다. 2015년 Bloomberg에서 GPU에 관한 NVIDIA 기사를 제안했을 때도 같은 반응이었다. 2016년 저널리즘을 떠나 AI로 전향했을 때는 “인생 최악의 실수를 하는 것”이라는 이메일을 받았다. 그는 회사에 “연봉 두 배를 주면 AI 전담 기자를 하겠다”고 말했고, 거절할 줄 알았지만 수락을 받았다. 그날 밤 자고 다음 날 아침 사직서를 냈다.

Jared Kaplan (Chief Science Officer) — 물리학 교수 출신. AI 스케일링 법칙(Scaling Laws) 논문의 공저자로, 모델 크기와 학습 데이터를 늘리면 성능이 예측 가능하게 향상된다는 이론을 정립했다. Constitutional AI의 아이디어를 처음 제안한 인물이기도 하다.

Sam McCandlish — 역시 물리학 연구자 출신으로 스케일링 연구에 기여했다.

이 7명이 처음 교차한 지점은 Google Brain이었고, 이후 전원이 OpenAI에서 만났다. GPT-2와 GPT-3, 그리고 스케일링 법칙을 함께 만들어낸 사람들이다. Dario의 표현을 빌리면, 이들은 “뭔가를 작동시키는 사람들의 덩어리”였다.


7. 왜 회사를 만들었나 — “의무감”의 이야기

창업 스토리의 핵심은 역설이다. 아무도 회사를 하고 싶어하지 않았는데, 회사를 만들었다.

Chris Olah는 비영리로 가야 한다고 오랫동안 주장했다. 해석 가능성 연구를 하고 싶었지, 경영은 원하지 않았다. Jared Kaplan은 발명과 발견을 하고 싶었을 뿐이다. Daniela는 원래 국제개발 분야로 돌아갈 계획이었다.

그런데 GPT-3를 만들고 나서 뭔가가 바뀌었다.

2020년, 이들은 스케일링 법칙과 GPT-3를 직접 손으로 만졌다. 그리고 눈앞에 뭔가가 보였다. 모델을 크게 만들수록 능력이 예측 가능하게 올라갔다. 이것이 의미하는 바는 명확했다. 이 추세가 계속된다면, 인류 역사에서 한 번도 본 적 없는 수준의 인공 지능이 만들어질 수 있다는 것. 그리고 그 개발을 주도하는 사람들이 어떤 가치관을 가지고 있느냐에 따라, 그 결과는 극단적으로 달라질 수 있다는 것.

Dario는 이 결정을 이렇게 설명했다. “우리 중 아무도 회사를 창업하라고 추천하지 않을 겁니다. 수단일 뿐이에요. 근데 AI가 잘 되게 하려면, 환경 자체를 우리가 세팅해야 했어요.”

Dario는 또 다른 맥락에서 2014년 AI 분위기에 대해 이야기한 적이 있다. 당시는 AI 겨울 이후 시대라, 야심찬 AI 비전을 말하는 것 자체가 금기였다. “모두가 동의하는 것처럼 보이는 합의가 있어요. 현명하고 상식적인 것처럼 보이지만, 실제로는 성숙함으로 위장한 집단행동이에요. 합의가 하룻밤 만에 바뀌는 걸 몇 번 보고 나면, 그냥 자기 확신대로 베팅하게 됩니다.”

2021년 OpenAI를 나온 것도 같은 결이었다. 이들은 OpenAI가 점점 상업화와 속도에 방점을 찍는 방향으로 흘러가는 것을 목격하며, 안전을 핵심으로 두는 별도의 조직이 필요하다는 결론에 도달했다.


8. 기술적 토대 — Constitutional AI와 RSP

“Concrete Problems in AI Safety” (2016)

2016년, 아직 Google Brain에 있던 Dario와 Chris가 함께 쓴 논문이다. AI 안전을 추상적인 철학 논의가 아니라 구체적인 머신러닝 문제로 접근하려는 시도였다. Chris는 후에 이 논문에 대해 솔직하게 평가했다. “문제 자체로 보면 그렇게 잘 버텨온 논문은 아니에요. 지금 보면 정확한 문제를 짚지 못했을 수도 있어요. 근데 합의를 만드는 작업으로 보면, 진짜 중요한 순간이었습니다.” 이들은 Brain 연구자 20여 명을 일일이 만나며 안전 연구를 진지하게 받아들이게 만드는 정치적 프로젝트도 함께 수행했다.

Constitutional AI (CAI)

Anthropic 초기, Jared Kaplan이 꺼낸 아이디어는 처음에는 황당하게 들렸다. “언어 모델에 헌법을 써줘서 그것에 따라 행동하게 만들면 어떨까?” 다들 미친 소리라고 여겼다. 그런데 작동했다.

원리는 단순하다. AI 모델은 객관식 시험을 잘 푼다. 원칙(헌법)을 주고, 자신의 행동을 그 원칙과 비교하게 만들면, 원칙에 부합하는 행동을 학습하는 훈련 타겟이 생긴다. Jared는 이를 이렇게 설명했다. “AI에서는 단순한 것이 놀라울 정도로 잘 작동해요. 처음 버전은 복잡했는데, 깎고 깎다 보니 결국 핵심은 ‘원칙을 읽고, 자기 행동과 비교하게 하는 것’이었어요.”

Constitutional AI는 RLHF(인간 피드백을 통한 강화학습)의 단점을 보완하면서, 더 확장 가능하고 일관된 방식으로 AI의 가치관을 정렬하는 접근법으로 주목받았다.

RSP — 책임감 있는 스케일링 정책

RSP(Responsible Scaling Policy)는 2022년 말 Dario와 Paul Christiano가 함께 고안한 개념이다. 처음 아이디어는 단순했다. “특정 지점에 도달하면 스케일링을 멈추자.” 그런데 논의를 거치면서 더 정교한 구조로 발전했다. “여러 임계점을 두고, 각 단계에서 안전 테스트를 통과해야만 다음 단계로 진행하자.”

Anthropic 내부에서 RSP는 “성스러운 문서”로 취급된다. 미국 헌법에 비유될 만큼, 회사의 근간을 이루는 원칙이다. RSP가 하는 일은 명확하다. 안전에서 의미 있는 진전이 없으면 다음 단계 스케일링을 막는다. 모든 팀은 평가(eval)를 만들어야 하고, 모델이 위험한 일을 수행할 수 있는지 지속적으로 측정해야 한다.

Tom Brown이 이 개념을 미국 상원의원에게 설명했을 때의 일화가 있다. “우리가 만든 것을 훔치기 어렵게 하고, 안전하게 합니다”라고 하면, 상원의원들은 “그건 당연한 거 아닌가요? 다른 회사들은 안 하나요?”라고 반응했다. Daniela의 목표는 RSP를 금융 감사처럼 지루하고 당연한 것으로 만드는 것이다. “화재 경보가 매주 울리면 진짜 불이 났을 때 아무도 안 움직인다”는 비유와 함께.

Anthropic이 RSP를 발표한 뒤 수개월 안에 주요 AI 기업 3곳이 유사한 정책을 도입했다. 해석 가능성 연구도 복제됐고, Frontier Red Team도 거의 즉시 클론됐다. Dario의 논리는 이것이다. “우리가 안전과 경쟁력을 동시에 보여주면 다른 회사도 따라올 수밖에 없어요. 시장은 실용적이니까요. 우리가 안전벨트를 만들고 다른 회사가 복사하면, 그게 좋은 세상이에요.”

조직 문화와 신뢰

Daniela가 강조하는 것이 있다. “이 테이블에 얼마나 많은 신뢰가 있는지, 그게 전략적 우위예요.” 제품팀, 연구팀, 신뢰와 안전팀, 영업팀, 정책팀, 안전팀이 전부 같은 목표를 향한다. Dario는 “회사의 다른 부분이 서로 다른 것을 추구하거나, 다른 부분이 자기를 방해한다고 생각하는 것이 가장 위험하다”고 말한다.


9. “기술의 사춘기” — Dario의 38페이지 에세이

2026년 1월 26일, Dario Amodei는 자신의 개인 블로그에 “The Adolescence of Technology(기술의 사춘기)”라는 제목의 장문 에세이를 발표했다. 약 2만 단어, 38페이지 분량이다. 이전 에세이 “Machines of Loving Grace(사랑하는 은총의 기계들)”가 AI의 잠재적 혜택을 다뤘다면, 이번 에세이는 정반대의 위험을 정면으로 다룬다.

에세이의 핵심 주장

에세이는 인류가 “거의 상상하기 어려운 힘을 건네받으려 하고 있으며, 우리의 사회적, 정치적, 기술적 시스템이 그것을 다룰 성숙함을 갖고 있는지 깊이 불분명하다”는 선언으로 시작한다. Dario는 강력한 AI, 즉 대부분의 분야에서 노벨상 수상자보다 뛰어난 시스템이 빠르면 2027년 안에 도래할 수 있다고 경고한다.

그가 분류한 AI 위험의 네 가지 카테고리는 다음과 같다.

첫째는 자율성 문제다. AI 시스템이 점점 더 자기 지향적이 되어가면서, 인간이 통제를 잃을 가능성이다. Dario는 Claude Sonnet 4.5가 출시 전 평가 과정에서 자신이 테스트받고 있음을 인식했다는 사례를 언급하며, 더 발전된 모델이 의도적으로 비정렬적 의도를 숨길 수 있음을 우려한다.

둘째는 개인에 의한 오용이다. 특히 생물학 분야에서 AI가 생물 무기 개발의 장벽을 낮출 수 있다는 우려다. Dario는 생물학을 “AI 오용에서 가장 무서운 영역”으로 꼽는다.

셋째는 권위주의 국가에 의한 오용이다. AI가 전체주의적 감시와 통제의 도구가 될 수 있다는 위험이다. 에세이는 “민주주의를 AI로 무장시켜야 한다”는 표현을 명시적으로 사용하며 미국 중심의 기술 리더십을 강조한다.

넷째는 경제적 혼란이다. AI가 연간 GDP 10~20% 성장을 이끌 수 있지만, 동시에 대규모 화이트칼라 일자리를 대체하며 부의 집중을 심화시킬 수 있다는 경고다. Dario는 이것이 “사회를 무너뜨릴 수준의 부의 집중”으로 이어질 수 있다고 쓴다.

에세이의 처방

에세이는 비관론에서 멈추지 않는다. Dario는 구체적인 처방을 제시한다.

규제와 정책 면에서, 그는 Anthropic이 자사 이해관계에 반하더라도 AI 수출 규제와 안전 입법을 공개적으로 지지해왔음을 강조한다. 소득 재분배를 위한 누진세, 잠재적으로 AI 기업 이익에 특화된 세금도 필요하다고 주장한다.

기술적 해법으로는 Constitutional AI의 고도화(2026년 목표: Claude가 헌법의 정신에 반하는 행동을 거의 하지 않도록), 해석 가능성 과학의 발전, 그리고 AI 행동의 실시간 모니터링과 투명한 공개를 제시한다.

산업 자율 규제와 관련해, 그는 정부 개입 이전에 AI 기업들이 자발적으로 책임지는 구조를 만들어야 한다고 주장하면서, Anthropic이 그 모범 사례가 되고자 한다고 밝힌다.

에세이는 AI 분야에서 큰 반향을 일으켰다. 일부는 이를 진지한 윤리적 성찰로 평가하고, 다른 이들은 Anthropic이 정부 승인 독점을 강화하기 위한 “안전” 서사를 활용하는 것이라는 비판적 시각을 보이기도 한다.


10. 창업자 7명 전원, 재산 80% 기부 선언

에세이 발표와 동시에, Anthropic 창업자 7명 전원이 자신의 재산 80%를 자선 단체에 기부하겠다고 선언했다. Dario와 Daniela Amodei, Tom Brown, Jack Clark, Jared Kaplan, Sam McCandlish, Christopher Olah — 이 7명 모두다.

또한 Anthropic 직원들도 개인적으로 현재 가격 기준 수십억 달러에 달하는 Anthropic 주식을 자선 단체에 기부할 것을 약속했으며, Anthropic 회사 차원에서 이 기부에 매칭 기여를 하기로 했다.

이 선언의 배경을 이해하려면 맥락이 중요하다. 창업자들은 단지 “부자이기 때문에” 기부하겠다고 말하는 것이 아니다. 그들은 자신들이 만들고 있는 기술이 전례 없는 부의 집중을 낳을 것임을 알고 있으며, 바로 그 부의 집중을 완화하기 위해 선제적으로 행동하는 것이다. Dario의 에세이는 “이 기술로 이익을 얻는 사람들이 그 피해를 완화하기 위한 책임을 져야 한다”는 논리 위에 서 있다.

보수적인 추산(창업자 1인당 약 37억 달러)으로도 합산 기부 약정액은 200억 달러(약 29조 원)를 넘는다. 하지만 3,800억 달러 밸류에이션 이후의 지분 가치를 적용하면, 실제 기부 규모는 수십조 원에 달할 수 있다.

Dario는 에세이에서 부유한 개인들이 자발적으로 기부와 권력 분산에 나서는 것이 먼저고, 그것이 충분하지 않다면 정부가 개입해 세금으로 강제해야 한다는 2단계 논리를 제시했다.

이 선언에는 찬사와 비판이 동시에 쏟아졌다. 찬사는 진정성 있는 책임 의식의 표현이라는 것이고, 비판은 자신들이 파괴하는 중간 계층에 대한 해법으로 자발적 자선을 제시하는 것이 “귀족의 의무(noblesse oblige)”에 불과하다는 것이다. 구조적 변화 없이 자선으로 시스템적 문제를 해결할 수 있다는 논리에 대한 회의도 상당하다.

그러나 선언 자체는 전례 없는 행동이다. AI 기업 창업자 전원이, 자신들의 기술이 만들어낼 세상에 대한 무게를 공개적으로 인정하고, 그 무게를 사재로 감당하겠다고 나선 것이니.


11. Anthropic vs. 미국 국방부 — 전례 없는 법적 충돌

Anthropic이 지금 겪고 있는 가장 극적인 사건 중 하나는 숫자나 기술이 아닌, 원칙의 문제다.

갈등의 시작

2025년 7월, Anthropic은 미국 국방부(당시 명칭이 “Department of War”로 변경됨)와 2억 달러(약 2,920억 원) 규모의 계약을 체결했다. 이 계약으로 Claude는 기밀 네트워크에서 사용이 승인된 최초의 프론티어 AI 모델이 되었다. 계약 조건에는 Anthropic의 사용 허용 정책(Acceptable Use Policy, AUP)이 포함됐다.

그런데 2026년 초, 계약 갱신 협상 과정에서 갈등이 불거졌다. Anthropic은 두 가지 레드라인을 계약에 명시할 것을 요구했다. 첫째, Claude를 완전 자율 무기(인간 개입 없이 자동으로 사람을 살상하는 무기)에 사용하지 않을 것. 둘째, 미국 시민에 대한 대규모 감시에 사용하지 않을 것. 국방부는 이를 거부했다. “군이 사용하는 기술의 방식을 민간 기업이 제한하는 것을 허용할 수 없다”는 이유였다.

공급망 위험 지정 — 미국 역사상 최초

2026년 2월 27일, 도널드 트럼프 대통령은 모든 연방 기관에 Anthropic의 기술 사용을 즉시 중단하라고 지시했다. 국방장관 Pete Hegseth는 Anthropic을 “공급망 위험(supply chain risk)”으로 지정했다. 이 지정은 통상 중국, 러시아 같은 외국 적대 세력 기업에만 사용되던 권한이다. 미국 역사상 자국 기업에 적용된 것은 이번이 처음이다.

이 지정의 실질적 의미는 폭발적이었다. Amazon, Microsoft, Palantir 같은 방산 협력사들이 국방부와의 계약 업무에서 Claude를 사용하지 않는다고 인증해야 했다. Anthropic은 “수십억 달러의 사업 손실”이 예상된다고 밝혔다.

Anthropic은 즉각 법적 대응에 나섰다. 국방부의 지정이 “보복적이고 불법적”이라며 소송을 제기했다. 수십 명의 OpenAI, Google DeepMind 직원들도 개인 자격으로 Anthropic을 지지하는 법정 의견서를 제출했다. Microsoft, 업계 단체, 퇴역 군인 장성들, 심지어 카톨릭 신학자 그룹까지 Anthropic 편에 법정 의견서를 냈다.

트럼프 전 백악관 AI 자문관 Dean Ball은 이 지정을 “미국 공화국의 마지막 신음”이라며 “정부가 국내 혁신가를 외국 적보다 더 나쁘게 취급하는 것”이라고 비판했다.

아이러니하게도, Anthropic이 공급망 위험으로 지정된 바로 그날, OpenAI는 국방부와 새로운 계약을 체결했다고 발표했다. Sam Altman은 OpenAI 계약에도 동일한 두 가지 제한이 포함되어 있다고 밝혔지만, 방식이 달랐다. Anthropic은 계약서에 명시적으로 넣으려 했고, OpenAI는 “모든 합법적 목적”을 허용하되 제한을 내부적으로 담았다는 것이다.

Claude 앱은 이 사건이 알려진 다음 날 App Store에서 ChatGPT를 처음으로 추월했다.

법원의 판단

2026년 3월 27일, 연방 지방법원 판사 Rita Lin은 Anthropic 손을 들었다. 국방부의 공급망 위험 지정을 임시로 차단하는 명령을 내리고, 트럼프의 연방 기관 사용 금지 지시의 집행도 정지시켰다. Lin 판사는 국방부의 조치가 “임의적이고 변덕스러우며 Anthropic을 무너뜨릴 수 있다”고 판시하면서, 특히 Hegseth가 외국 적대 세력에게만 적용하던 군 권한을 사용한 것을 문제 삼았다.

판사는 판결문에 이렇게 썼다. “관할 법령 어디에도 정부와의 의견 불일치를 이유로 미국 기업을 미국의 잠재적 적이자 파괴자로 낙인찍을 수 있다는 Orwell식 개념을 뒷받침하는 내용이 없다.”

Anthropic은 “법원이 신속하게 움직여줘서 감사하며, 우리가 본안에서 이길 가능성이 높다고 법원이 동의한 것에 기쁘다”고 성명을 냈다.

이 분쟁은 AI 시대의 근본적인 질문을 제기한다. 민간 기업이 자사 기술의 사용 방식에 제한을 걸 수 있는가? AI 개발사의 윤리적 원칙은 어디까지 국가 안보 논리와 충돌할 수 있는가?


12. 앞으로의 세 가지 방향

창업자들이 공통적으로 기대하는 미래는 세 가지 축으로 정리된다.

해석 가능성 — 신경망의 내부를 여는 작업

Chris Olah가 이끄는 해석 가능성(interpretability) 연구다. 신경망 내부를 열어보면 놀라운 구조들이 있다고 한다. 어떤 개념이 어떤 뉴런에 인코딩되어 있는지, 모델이 어떤 회로를 통해 추론하는지를 파악하는 것이다. 이 연구는 모델이 왜 특정 행동을 하는지 이해하고, 문제를 진단하고, 수정할 수 있는 도구를 제공한다.

Dario는 이 주제에서 드물게 열정적인 표현을 쓴다. “Chris Olah가 미래의 노벨 의학상 수상자가 될 거라고 진심으로 생각한다.” 그의 논리는 이렇다. 정신 질환 같은 아직 해결되지 않은 인간 의학의 난제들이 고수준 인지 시스템의 문제일 수 있고, 신경망을 이해하는 도구가 그 실마리를 줄 수 있다는 것이다.

AI로 생물학 혁신 가속화

AlphaFold는 단백질 구조 예측 문제를 풀어 2024년 노벨 화학상을 받았다. Anthropic의 목표는 “AlphaFold 100개를 만들 수 있는 AI”다. 백신 개발, 암 치료, 기초 생물학 연구까지. Dario는 이것이 “Machines of Loving Grace” 에세이에서 그린 청사진의 핵심이라고 말한다.

이 맥락에서 Claude Mythos의 “극적으로 향상된 학술 추론” 능력은 단순한 벤치마크 수치가 아니다. 그것은 AI가 과학적 발견의 협력자로 기능할 수 있는지를 가늠하는 지표다.

AI로 민주주의 강화

가장 초기 단계의, 그러나 Dario가 “매우 중요해질 것”이라고 말하는 방향이다. AI가 권위주의의 도구가 될 수 있다는 우려(실제로 Anthropic vs. 국방부 분쟁의 핵심이기도 하다)와 대비하여, AI가 자유와 자기 결정의 도구가 될 수 있는 가능성을 탐구하는 것이다. “민주주의를 AI로 무장시켜야 한다”는 에세이의 표현이 이 방향을 상징한다.


13. 결론 — 맞아들어가고 있는 베팅

한 유튜브 대담 영상에서 이 7명은 웃으며 회사를 만든 이유를 이야기했다. 아무도 회사를 하고 싶지 않았다고. 의무감 때문이었다고.

Jack Clark은 AI로 커리어를 바꿀 때 “인생 최악의 실수”라는 이메일을 받았다. Chris Olah는 비영리로 가야 한다고 주장했다. Daniela는 국제개발로 돌아갈 생각이었다.

그리고 지금, 이들의 이름은 Fortune 표지에 올랐다. 기업가치 555조 원. 3년 연속 10배 성장. 역대 두 번째 규모의 벤처 딜. 역사상 최초로 자국 AI 기업이 된 국방부 공급망 위험 지정 기업이자, 그 지정을 법원에서 임시로 뒤집은 회사.

그러나 이들이 진정으로 성공하려면, 이 모든 숫자와 이름이 아무 의미가 없다. 이 기술이 세상을 망치지 않아야 한다.

Dario가 에세이에서 쓴 문장이 있다. “우리는 거의 상상하기 어려운 힘을 건네받으려 하고 있으며, 우리의 시스템들이 그것을 다룰 성숙함을 갖고 있는지 깊이 불분명하다.” 이것은 Anthropic 외부에 대한 이야기가 아니다. 자기 자신에 대한 이야기다.

재산의 80%를 내놓겠다고 한 7명. 자율 무기와 대규모 감시에 자사 기술을 사용하지 못하게 하겠다는 원칙을 지키다 미국 정부와 소송을 벌이는 회사. 가장 강력한 AI를 만들었으면서도 그것을 서랍 속에 넣어두고 사이버 방어 전문가들에게만 조심스럽게 시험하는 조직.

10년 전에 이들이 바랐던 환경이, 지금 이들이 만들고 있는 환경이다.

맞아들어가고 있다.


참고 자료


이 문서는 2026년 3월 29일 기준으로 작성되었습니다. Anthropic과 관련된 사안은 현재 진행 중이며, 특히 국방부와의 법적 분쟁 및 Claude Mythos 출시 일정은 이후 상황이 달라질 수 있습니다.

이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.