TIME 보도: Anthropic 내부에서 나타난 AI 변화의 결정적 신호들
원문 출처: TIME, “How Anthropic Became the Most Disruptive Company in the World”
보도일: 2026년 3월 11일
작성일: 2026-03-13
TIME 보도: Anthropic 내부에서 나타난 AI 변화 신호
TIME 기사에 따르면 Anthropic 내부에서는 AI 발전 속도가 예상보다 훨씬 빠르게 진행되고 있다는 인식이 확산
과거 수개월 단위였던 모델 출시 주기가 현재는 몇 주 단위로 단축되는 추세
Claude가 미래 모델 개발 코드의 약 70~90%를 작성하는 단계에 도달
Anthropic은 Claude 3.7 Sonnet 출시를 약 10일 지연하며 안정성 검증 진행
내부에서는 2026~2030년이 AI 발전의 결정적 시기가 될 것이라는 전망이 확산
Anthropic 공동 창업자 Dario Amodei는 향후 1~5년 내에 초급 화이트칼라 직업의 절반이 사라질 수 있다고 경고
일부 직원들은 AI가 스스로 개선하는 ‘재귀적 자기 개선(recursive self-improvement)’ 단계에 근접했을 가능성을 논의
외부 전문가 일부는 완전 자동화된 AI 연구 시스템이 1년 내 등장할 수도 있다고 전망
핵심 의미
AI가 연구·개발 자체를 자동화하는 단계에 가까워지고 있다는 신호
향후 몇 년이 AI 산업과 노동 시장 모두에 중대한 변곡점이 될 가능성 제기
서론: 세계에서 가장 파괴적인 기업
2026년 3월, 미국의 권위 있는 시사 주간지 TIME은 Anthropic을 표지 기업으로 선정하며 ‘세계에서 가장 파괴적인 기업(The Most Disruptive Company in the World)’이라는 타이틀을 부여했다. 이는 AI 업계 기업이 TIME의 표지를 장식한 첫 번째 사례로, 기자 Harry Booth와 Billy Perrigo가 Anthropic 본사에서 사흘을 직접 취재한 결과물이다.
TIME이 Anthropic에 주목한 이유는 단순한 기업 성공 스토리가 아니다. 이 보도의 핵심은 AI 기술이 이미 스스로를 발전시키는 단계에 진입했다는 내부 증언들, 그리고 그 속에서 안전과 속도 사이의 극한 긴장을 살아가는 사람들의 이야기다. Anthropic은 기업 가치 3,800억 달러(Goldman Sachs, McDonald’s, Coca-Cola의 시가총액을 능가하는 수준)를 기록하며, 동시에 세계에서 가장 무거운 철학적 부담을 지닌 AI 회사로 자리매김하고 있다.
이 문서는 TIME 보도를 중심으로, 여러 추가 소스를 통해 검증·보완한 내용을 담아 Anthropic 내부에서 실제로 무슨 일이 일어나고 있는지를 체계적으로 조명한다.
1. Claude가 Claude를 만든다: 재귀적 자기 개선의 현실화
70~90%라는 숫자의 의미
TIME 보도에서 가장 충격적인 사실 중 하나는, 현재 Anthropic이 미래 버전의 Claude를 개발하는 데 사용하는 코드의 70~90%를 Claude 스스로 작성하고 있다는 것이다. Fortune 지의 별도 취재에 따르면 Claude Code의 수장인 Boris Cherny는 두 달 이상 단 한 줄의 코드도 직접 작성하지 않았다고 밝혔으며, Anthropic 전체 차원에서도 사실상 거의 모든 코드가 AI에 의해 생성되고 있다고 전했다. 특히 Claude Code 제품 자체에 관한 코드는 약 90%가 Claude Code 자신에 의해 작성된다.
이 수치는 단순한 생산성 지표가 아니다. AI가 다음 세대 AI 시스템의 개발 코드를 대부분 작성한다는 것은, 기술 진화의 주도권이 인간 엔지니어에서 AI 시스템 자체로 이동하기 시작했음을 시사하는 역사적 전환점이다. 비교하자면, 마이크로소프트는 내부 코드에서 AI 생성 비중이 30~40% 수준이고, 구글의 Gemini 팀도 약 30%에 머물고 있다. Anthropic의 수치는 업계 최고 수준을 훌쩍 넘는다.
재귀적 자기 개선: 이미 시작된 미래
Anthropic의 정렬 스트레스 테스트팀을 이끄는 Evan Hubinger는 TIME 취재에서 충격적인 발언을 남겼다. “재귀적 자기 개선(recursive self-improvement)은 미래의 현상이 아닙니다. 그것은 현재 진행 중인 현상입니다.” 그는 이렇게 단언했다.
재귀적 자기 개선이란 AI 시스템이 스스로를 개선하면서 그 개선이 다시 더 빠른 개선을 낳는 피드백 루프를 가리킨다. SF 소설과 AI 안전 연구자들이 수십 년간 ‘인텔리전스 폭발(intelligence explosion)’의 시나리오로 논의해온 바로 그 현상이다. 완전한 의미의 재귀적 자기 개선, 즉 인간의 감독 없이 AI가 스스로 더 똑똑한 AI를 설계하는 단계에는 아직 도달하지 않았다. 그러나 Claude Code는 Anthropic이 계획을 실행하는 속도를 이전보다 훨씬 빠르게 만들었고, 모델 출시 주기는 이전의 수개월 단위에서 이제는 몇 주 단위로 단축됐다.
이 루프의 위험성은 순환적이다. Claude가 안전 연구의 속도도 높여주는 동시에, 회사가 점점 더 AI 시스템 자체에 의존해 AI를 개발하면서 리스크도 함께 커진다. Georgetown 대학교 안보·신흥기술센터의 임시 소장 Helen Toner는 TIME 취재에서 이 흐름에 대해 직설적인 비판을 가했다. “세계에서 가장 부유한 기업들이, 지구상에서 가장 뛰어난 인재들을 동원해, AI 연구개발을 완전 자동화하려 한다는 사실은 ‘도대체 이게 무슨 짓인가’라는 반응을 이끌어낼 만하다”고 했다.
427배라는 속도 차이
TIME 조사를 인용한 별도 보도에 따르면, Anthropic의 내부 벤치마크에서 Claude는 일부 핵심 작업에서 인간 감독자보다 427배 빠르게 수행하는 것으로 나타났다. 한 연구자는 Claude 6개 인스턴스를 운용하면서 각각이 28개의 추가 인스턴스를 관리하고, 그 모든 인스턴스가 병렬로 실험을 동시에 수행하는 장면을 묘사했다. 인간이 순차적으로 처리할 수밖에 없는 연구 과제들을 AI는 수백 개의 평행 흐름으로 동시에 처리하고 있는 것이다.
2. Claude Code: 모든 것의 시작점
우크라이나 출신 엔지니어의 첫 달 프로젝트
TIME 기사는 Claude Code의 탄생 스토리를 상세히 조명한다. 우크라이나 태생의 엔지니어 Boris Cherny가 Anthropic에 입사한 첫 달에 Claude Code를 만들었다는 사실은 널리 알려져 있지만, 그 파급력은 예상을 한참 뛰어넘었다. 챗봇이 말만 할 수 있었다면, Claude Code는 Claude에게 ‘손’을 달아주었다. 파일 접근, 프로그램 실행, 코드 작성과 실행 능력, 즉 일반 프로그래머가 하는 모든 것을 할 수 있게 된 것이다.
이 도구는 Anthropic 내부에서 너무 빠르게 퍼진 나머지, Cherny의 첫 번째 성과 평가 때 CEO Dario Amodei가 “동료들에게 억지로 사용시키고 있느냐”고 물었을 정도였다. 2025년 2월 외부에 연구 프리뷰가 공개되자 개발자들이 폭발적으로 몰려들었다. 2025년 11월에는 Claude Code에 통합된 새 Claude 버전이 스스로의 실수를 파악하고 혼자서 작업을 완료할 수 있을 만큼 성숙했고, Cherny는 그때부터 직접 코드를 작성하는 것을 완전히 중단했다.
코딩 에이전트 하나의 매출이 연 25억 달러
성장 속도는 가히 천문학적이다. Claude Code의 연환산 매출은 2025년 말 10억 달러를 돌파했고, 2026년 2월에는 25억 달러로 두 배 이상 증가했다. 업계 리서치 기관 Epoch와 Semianalysis의 추정에 따르면, Anthropic은 이 추세라면 2026년 말까지 OpenAI의 전체 매출을 추월할 것으로 전망된다.
Spotify의 사례가 이 가능성을 잘 보여준다. Claude를 엔지니어들의 일상 시스템에 직접 통합한 Spotify는 영어 자연어로 대규모 마이그레이션 작업을 지시할 수 있게 됐고, 엔지니어링 시간 90% 절감, 월 650건 이상의 AI 생성 코드 변경, 전체 업데이트의 절반이 AI 시스템을 통해 처리되는 성과를 달성했다.
3. 시간의 압축: 모델 출시 주기의 단축
수개월에서 수주로
과거 AI 모델의 주요 출시는 수개월 단위의 간격을 두고 이루어졌다. GPT 시리즈나 Claude 시리즈의 주요 버전 출시가 그 예다. 그러나 TIME 보도는 Anthropic 내부에서 이 주기가 이미 몇 주 단위로 단축됐음을 전한다. 모델 개발 코드의 대부분을 AI가 작성하는 구조가 갖춰지자, 인간 팀이 처리해야 할 병목이 줄어들면서 반복 주기 자체가 압축된 것이다.
이는 단순한 편의의 문제가 아니다. 주기의 단축은 개선의 누적 속도를 기하급수적으로 높인다. 이전 모델이 다음 모델의 개발을 돕고, 그 다음 모델이 또 다음 모델의 개발을 더 빠르게 돕는 연쇄가 형성된다. Claude Code가 그 플라이휠의 엔진 역할을 하고 있는 셈이다.
Claude 3.7 Sonnet 출시 10일 지연의 의미
Anthropic은 Claude 3.7 Sonnet 출시를 약 10일 지연하며 안정성 검증을 진행했다. 이 사례는 단순한 일정 조정이 아니라, 회사가 빠른 출시보다 안전 검증을 우선했음을 보여주는 상징적 사건이다. 내부에서 모델 출시 주기가 급격히 단축되는 압력이 커지는 상황에서도, 브레이크를 밟을 수 있는 문화와 절차를 유지하고 있다는 신호로 읽힌다.
4. 내부의 위기감: 2026~2030년이 결정적 시기
“절벽 도로를 달리고 있다”
TIME 기사에서 가장 강렬한 구절 중 하나는 Anthropic의 안전 보호 책임자(Head of Safeguards) Dave Orr의 발언이다. “우리는 절벽 도로를 달리고 있습니다. 실수 한 번이면 죽습니다. 예전에는 시속 25로 달렸지만 지금은 75로 달리고 있습니다.” 회사가 이 속도로 달리고 있다는 것을 내부적으로 인식하면서도, 그 속도를 늦추지 않고 있다는 것이 이 발언의 핵심 긴장이다.
Anthropic 직원으로 소개된 Graham은 “우리는 2026년부터 2030년이 가장 중요한 일들이 일어나는 시기라는 전제 하에 움직여야 합니다. 모델들이 더 빠르고 더 똑똑해지며, 어쩌면 인간이 감당할 수 있는 속도를 초과하게 될 것”이라고 말했다. 이 5년이 AI 역사의 분수령이 될 것이라는 인식이 조직 전반에 확산돼 있다는 것이다.
재귀적 자기 개선의 임계점 논의
내부에서 일부 직원들은 AI가 스스로를 개선하는 ‘재귀적 자기 개선’의 임계점에 이미 근접했거나 진입했을 가능성을 논의하고 있다. 완전한 의미에서는 아직 인간 과학자들이 Claude의 발전 방향을 안내하고 있지만, 그 경계가 얼마나 빠르게 무너질지에 대한 불안이 커지고 있다.
Anthropic의 공동 창업자 겸 수석 과학자 Jared Kaplan은 완전 자동화된 AI 연구 시스템이 불과 1년 내에 실현될 수 있다고 전망했다. 그것이 현실화된다면, AI가 스스로 다음 세대 AI의 연구 설계와 실행을 담당하는 세계가 열리는 것이다. 카플란은 그 단계에서의 핵심 위험을 ‘해석 불가능성’으로 지목했다. AI가 스스로 설계하는 최적화 경로가 인간의 인지 범위를 벗어날 때, 우리는 그 안에 숨겨진 목표 함수의 오정렬(misalignment)을 감지할 수 없게 된다.
5. 노동 시장의 충격: 초급 화이트칼라 직업의 절반
Dario Amodei의 경고
CEO Dario Amodei는 TIME 보도 및 여러 외부 발언을 통해 향후 1~5년 내에 초급 화이트칼라 직업의 절반이 사라질 수 있다고 경고했다. 이는 막연한 미래 예측이 아니라, 이미 자신의 회사 내부에서 관찰하고 있는 현상을 외삽한 전망이다.
Claude Code의 파급이 시작된 이후 Anthropic 내부에서 초급 개발자의 역할은 이미 근본적으로 변했다. Boris Cherny는 자신의 팀이 이제 전통적인 전문 개발자 대신 제너럴리스트를 주로 채용한다고 밝혔다. AI가 구현 세부사항을 처리하므로, 특정 언어나 프레임워크의 전문성보다는 방향을 설정하고 AI를 안내하는 능력이 더 중요해졌기 때문이다.
직업 구조의 변화: 전문가에서 ‘아키텍트-감독자’로
이 변화는 단순한 자동화가 아니다. 인간의 역할이 소멸하는 것이 아니라, 완전히 다른 층위로 올라간다는 것이 현재까지의 관찰이다. Anthropic의 한 엔지니어는 “아키텍처적 비전을 갖추고 있다면, 한 명의 엔지니어가 50명 팀의 일을 할 수 있다”고 표현했다. 문제는, 그 ‘아키텍처적 비전’을 가진 인재는 극소수라는 점이다.
Fortune의 취재에 따르면 GitHub 등 데이터에서도 이 흐름이 감지된다. 미국 내 파이썬 함수의 약 29%가 이미 AI로 작성된 것으로 나타났으며, 초급 소프트웨어 엔지니어 채용 공고는 AI 코딩 도구의 확산과 함께 감소 추세를 보이고 있다.
6. Anthropic의 역설: 안전을 위해 위험을 가속하다
“병원균을 연구하는 생물학자”라는 자기 정의
TIME은 Anthropic의 근본적인 역설을 생생하게 포착했다. 이 회사는 생물학자가 치료법을 찾기 위해 치명적인 병원균을 연구실에서 배양하듯, AI의 위험을 직접 개발하고 탐구함으로써 그 위험을 이해하려 한다는 것이 스스로의 논리다. 조심성 없는 다른 이들에게 맡기기보다는 자신들이 직접 프론티어를 밀어붙이며 위험을 지도화한다는 철학이다.
그러나 이 논리 자체가 강렬한 긴장을 내포한다. 안전을 설교하면서도 Claude를 이용해 더 강력한 버전의 자신을 가속 개발하고 있다. 이 역설은 외부의 비판이 아니라 TIME이 취재를 통해 확인한 내부의 긴장이다. 직원들 스스로가 이 모순을 인식하면서도 계속 달리고 있는 것이다.
책임 확장 정책(RSP)의 후퇴
Anthropic은 경쟁사들이 더 강력한 모델을 개발하는 레이스 속에서 자사의 ‘책임 있는 확장 정책(Responsible Scaling Policy, RSP)’을 개정했다. 핵심 변화는, 안전성을 입증할 수 없으면 훈련을 중단한다는 기존의 엄격한 약속을 삭제한 것이다. 대신 경쟁자들과 ‘동등하거나 높은’ 수준의 안전 투자만 유지하겠다는 상대적 기준으로 교체했다. 이는 절대적 안전 기준에서 상대적 경쟁 기준으로의 전환이라는 점에서, AI 안전 커뮤니티에서 중대한 후퇴로 평가받고 있다.
7. 펜타곤과의 충돌: 안전의 레드라인
AI 역사상 최초의 실전 군사 투입
TIME 기사의 또 다른 핵심 축은 Anthropic과 미국 국방부(이른바 펜타곤)의 갈등이다. 1년 넘게 Claude는 미국 정부의 선호 AI 모델이었고, 기밀 네트워크에서 사용이 허가된 최초의 프론티어 AI 시스템이었다. 2026년 1월에는 베네수엘라 대통령 니콜라스 마두로의 카라카스 체포 작전에 Claude가 임무 계획과 정보 분석에 활용됐다는 사실이 보도됐다. 이는 최첨단 AI가 실제 군사 작전에 깊이 관여한 첫 사례로 기록됐다.
두 가지 레드라인
그러나 2026년 초 펜타곤과의 계약 협상에서 Anthropic은 두 가지 양보할 수 없는 원칙을 천명했다. 첫째, Claude를 완전 자율 치명 무기 시스템(최종 타격 결정을 AI가 내리는 무기)에 사용하는 것을 금지한다. 둘째, 미국 시민에 대한 대규모 감시 활동에 사용하는 것을 금지한다.
국방장관 Pete Hegseth는 2026년 1월 SpaceX 본사 연설에서 “우리는 싸우지 못하게 하는 AI 모델을 사용하지 않겠다”고 선언했다. 2월 24일 Hegseth는 Dario Amodei를 펜타곤으로 직접 소환해 면담했다. Amodei는 회사가 대부분의 요구는 수용할 수 있지만 두 가지 레드라인은 절대 양보할 수 없다고 밝혔다.
공급망 리스크 지정과 법적 대응
협상이 결렬되자 국방부는 Anthropic을 공급망 리스크(Supply-Chain Risk)로 공식 지정했다. 이는 역사적으로 외국 적대 세력에만 적용되던 조치를 미국 기업에 처음으로 적용한 전례 없는 사건이다. 국방부 CTO Emil Michael은 Claude가 다른 정책 선호를 내재하고 있어 공급망을 ‘오염’시킬 수 있다고 표현했다. 이에 Anthropic은 이 지정이 ‘전례 없고 불법적’이라며 즉각 법적 소송으로 대응했다.
아이러니하게도, 이 모든 충돌 와중에도 Claude는 미국의 이란 군사작전을 지원하는 데 계속 사용되고 있었다. 국방부 측도 “미션 크리티컬 활동에 한해 예외를 고려할 것”이라고 인정하며, 6개월 단계적 퇴출 계획을 밝혔다. 국방 기술 기업들은 Claude 사용을 중단하고 대체 모델 탐색에 나섰고, Palantir CEO Alex Karp는 향후 다른 LLM도 통합할 계획이라고 밝혔다.
8. 한국 개발자·기업에 주는 시사점
AI가 AI를 만드는 세계에서의 전략
Anthropic의 내부 사례는 한국 기업과 개발자들에게 중요한 실천적 함의를 던진다. AI가 AI 개발 코드의 70~90%를 작성하는 시대가 이미 세계 최전선 AI 랩에서 현실이 됐다면, 한국의 대형 IT 기업과 SI 기업들도 같은 방향으로의 전환을 준비해야 한다는 신호다.
보다 구체적으로, 한국의 소프트웨어 개발 조직은 인력 구성의 재설계를 고민해야 한다. 특정 언어나 프레임워크의 전문 지식보다, AI를 ‘어떻게 올바른 방향으로 안내할 것인가’에 관한 아키텍처적 사고력과 도메인 지식이 핵심 역량으로 부상하고 있다. Boris Cherny가 자신의 팀에서 전문 개발자보다 제너럴리스트를 선호하는 것처럼, 역할의 경계가 유연해지는 조직 설계가 필요해진다.
초급 화이트칼라 직업에 대한 현실적 준비
Dario Amodei의 경고는 한국 노동 시장에도 직접적으로 적용된다. 한국은 대학 졸업자의 높은 비율이 화이트칼라 초급직을 목표로 하는 구조적 특성을 가지고 있다. AI가 초급 분석, 문서 작성, 코드 작성, 데이터 처리 업무를 대체하기 시작하면, 기존의 경력 경로가 흔들릴 수 있다. 이에 대한 교육 시스템과 산업 정책 차원의 준비가 시급하다.
한편으로, AI가 ‘손’을 가지게 된 세계에서는 중소기업과 스타트업도 대기업에 버금가는 소프트웨어 개발 역량을 갖출 수 있게 된다. 한국의 스타트업 생태계 입장에서는 Claude Code나 그에 준하는 도구를 활용해 기존에는 불가능했던 수준의 소프트웨어를 소수 팀으로 구현하는 기회가 열리고 있다.
안전과 속도 사이의 거버넌스 교훈
Anthropic의 펜타곤 갈등은 한국 기업과 정부에도 중요한 교훈을 남긴다. AI 시스템이 공공·군사·국가 안보 영역에 깊숙이 진입할수록, ‘어디에는 쓰고 어디에는 쓰지 않겠다’는 레드라인의 설정이 기업 가치 정체성의 핵심이 된다. Anthropic이 3,800억 달러짜리 계약 기회를 포기하면서도 두 가지 원칙을 지킨 것은 단순한 윤리적 결단이 아니라, 장기적 신뢰의 토대를 구축하는 전략적 선택이었다는 해석도 가능하다.
한국도 AI 군사 활용, 개인정보 감시, 자율 무기 등의 영역에서 명확한 거버넌스 프레임워크를 조속히 마련할 필요가 있다.
9. 비판과 반론: 숫자의 해석과 진짜 위험
70~90%의 함정
LessWrong 등의 커뮤니티에서는 ‘코드의 70~90%가 AI 작성’이라는 수치에 대한 방법론적 비판이 제기된다. 분모의 문제가 있다는 것이다. AI 도구가 도입되면 이전에는 작성하지 않았던 일회성 스크립트, 자동화 테스트, 시각화 코드 등을 훨씬 더 많이 생성하게 된다. 따라서 전체 코드 생산량이 늘어나면서 AI 비중이 높아 보일 수 있지만, 실제 인간이 대체된 업무의 비중과는 다를 수 있다는 것이다. 이상적인 측정 지표는 “Claude 없이 다음 모델을 개발하는 데 얼마나 더 오래 걸리냐”가 되어야 한다는 지적이다.
모델 붕괴(Model Collapse)의 위험
AI가 다음 세대 AI 개발 코드를 작성한다는 구조는 ‘모델 붕괴(model collapse)’의 위험도 내포한다. 이전 모델이 생성한 코드가 다음 모델의 훈련 데이터로 사용될 때, 기존 편향이 증폭되거나 인간 감독자가 발견하지 못한 오류가 누적될 수 있다. Anthropic이 ‘아키텍트-감독자’ 역할을 강조하는 것도 이 위험에 대한 의식에서 비롯된 것으로 보인다.
자기 홍보의 문제
일부 비평가들은 Anthropic이 강력한 AI의 위험성을 강조하면서 동시에 자신들이 그 최전선에 있다는 것을 부각시키는 패턴이 투자자와 고객 유치를 위한 마케팅 전략과 구분하기 어렵다는 점도 지적한다. 위험을 선도적으로 논의하는 것이 신뢰를 쌓는 동시에, 시장 지위를 강화하는 효과도 있기 때문이다.
결론: 인류가 만든 것이 인류를 추월하기 직전
TIME 보도가 조명하는 Anthropic의 2026년은, AI 역사의 교과서에 기록될 전환점일지도 모른다. Claude가 Claude를 만들고, 그 속도가 수주 단위로 단축되며, 내부 직원들이 스스로 ‘이것이 재귀적 자기 개선의 시작’이라고 말하는 시대. 이 회사는 절벽 도로를 시속 75로 달리면서, 동시에 그 절벽의 지도를 그리겠다고 말하고 있다.
이 모순 속에 인류의 가장 어려운 질문이 있다. 인간이 만든 것이 인간의 감독 능력을 추월하기 시작할 때, 우리는 무엇을 기준으로 안전을 판단할 수 있는가. Anthropic은 그 질문에 아직 완전한 답을 갖지 못한 채, 그 질문이 현실이 되는 속도보다 빠르게 달리려 하고 있다.
2026~2030년이 결정적 시기라는 내부의 인식은, AI를 사용하는 모든 기업과 정부와 개인에게도 이미 유효한 시간 감각이다.
참고 자료
TIME, “How Anthropic Became the Most Disruptive Company in the World” (2026.03.11)
https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/Fortune, “Top engineers at Anthropic, OpenAI say AI now writes 100% of their code” (2026.01.29)
https://fortune.com/2026/01/29/100-percent-of-code-at-anthropic-and-openai-is-now-ai-written-boris-cherny-roon/CNBC, “Defense tech companies are dropping Claude after Pentagon’s Anthropic blacklist” (2026.03.04)
https://www.cnbc.com/2026/03/04/pentagon-blacklist-anthropic-defense-tech-claude.htmlCNBC, “Palantir is still using Anthropic’s Claude as Pentagon blacklist plays out” (2026.03.12)
https://www.cnbc.com/2026/03/12/karp-palantir-anthropic-claude-pentagon-blacklist.htmlAxios, “Anthropic says Pentagon’s ‘final offer’ is unacceptable” (2026.02.26)
https://www.axios.com/2026/02/26/anthropic-rejects-pentagon-ai-termsVentureBeat, “Anthropic says Claude Code transformed programming. Now Claude Cowork is coming for the rest of the enterprise” (2026)
https://venturebeat.com/orchestration/anthropic-says-claude-code-transformed-programming-now-claude-cowork-ishvylya.net, “Claude Writes 90% of Its Own Training Code” (2026.03.12)
https://en.hvylya.net/news/1190-claude-writes-90-of-its-own-training-code-anthropic-says-full-automation-is-closer-than-you-think
작성일: 2026-03-13